Uma startup britânica chamada Harmonic Security atraiu US$ 7 milhões em investimentos iniciais para construir tecnologia que ajude a proteger implantações generativas de IA nas empresas.

A Harmonic, com sede em Londres e São Francisco, disse que está trabalhando em software para mitigar o “oeste selvagem” de aplicativos de IA não regulamentados que coletam dados de empresas em grande escala.

A empresa disse que o financiamento inicial foi liderado pela Ten Eleven Ventures, uma empresa de investimento que investe ativamente em startups de segurança cibernética. A Storm Ventures e alguns líderes de segurança também assumiram posições acionárias.

A Harmonic está entrando em um campo cada vez mais lotado de startups de segurança cibernética com foco em IA que buscam obter lucros à medida que as empresas adotam a tecnologia de IA e LLMs (modelo de linguagem grande).

Uma onda de novas startups como CalypsoAI (US$ 23 milhões arrecadados) e HiddenLayer (US$ 50 milhões) levantaram grandes rodadas de financiamento para ajudar as empresas a garantir implantações generativas de IA.

A empresa Hotshot OpenAI já está usando a segurança como argumento de vendas para o ChatGPT Enterprise, enquanto a Microsoft e outros estão colocando o ChatGPT para trabalhar na solução de inteligência de ameaças e outros problemas de segurança.

Harmonic, ideia de Alastair Paterson (anteriormente liderou a Digital Shadows em uma aquisição de US$ 160 milhões pela ReliaQuest/KKR), está prometendo tecnologia para dar às empresas uma imagem completa da adoção de IA dentro das empresas, oferecendo avaliações de risco para todos os aplicativos de IA e identificando conformidade potencial, questões de segurança ou privacidade.

A empresa citou um estudo do Gartner que mostra que 55% das empresas globais estão testando ou usando IA generativa e alertou que a maioria dos aplicativos não são regulamentados, com políticas pouco claras sobre como os dados serão usados, para onde serão transmitidos ou como serão. mantido seguro.

“O Harmonic fornece uma avaliação de risco de todos os aplicativos de IA para que sejam identificados serviços de IA de alto risco que possam levar a incidentes de conformidade, segurança ou privacidade. Esta abordagem significa que as organizações podem controlar o acesso a aplicações de IA conforme necessário, incluindo o bloqueio seletivo do upload de conteúdo sensível, sem a necessidade de regras ou correspondências exatas”, explicou a empresa.

antonio-cesar-150x150
António César de Andrade

Apaixonado por tecnologia e inovação, traz notícias do seguimento que atua com paixão há mais de 15 anos.