A Protecto, uma startup do Vale do Silício que trabalha em tecnologia para proteger implantações corporativas de IA, está se juntando a uma lista em rápido crescimento de empresas em estágio inicial na categoria de segurança de inteligência artificial.

A empresa de San Jose atraiu US$ 4 milhões em capital inicial para impulsionar suas ambições de possibilitar o futuro da privacidade e segurança de dados.

Protecto disse que o financiamento foi liderado pelo Fundo Juntos. Investidores da Better Capital, FortyTwo VC, Arali Ventures e Speciale Invest também adquiriram participações acionárias.

A startup está lançando a ideia de APIs fáceis de usar para ajudar as organizações a proteger os dados e garantir a conformidade em todo o ciclo de vida da IA ​​em treinamento, RAG/ajuste e prompts.

Protecto disse que sua tecnologia será capaz de mascarar dados pessoais confidenciais, preservando o formato e o significado originais dos dados, permitindo que os modelos de IA entendam o contexto e gerem resultados precisos.

A empresa planeja usar o novo capital para contratar talentos de engenharia e expandir suas iniciativas estratégicas de entrada no mercado.

A Protecto é a mais recente de uma lista crescente de novas empresas de segurança de IA que atraem apostas de capital de risco. Só neste ano, os investidores investiram dinheiro em empresas como Hidden Layer, CalypsoAI, Harmonic e Cranium, spinout da KPMG.

O aumento dos investimentos em segurança de IA segue-se ao lançamento inebriante do aplicativo ChatGPT da OpenAI e a uma corrida entre grandes e pequenos fornecedores de software para adotar os poderosos recursos de LLM (modelos de aprendizagem de idiomas) e IA generativa.

A gigante do software Microsoft lançou uma ferramenta de análise de segurança baseada em IA para automatizar a resposta a incidentes e tarefas de caça a ameaças, apresentando chatbots de IA geradores de casos de uso de segurança.

A OpenAI também lançou uma edição empresarial do ChatGPT, prometendo segurança de nível empresarial e um compromisso de não usar prompts e dados específicos do cliente no treinamento de seus modelos.