Pesquisadores de IA da Microsoft expõem 38 TB de dados, incluindo chaves, senhas e mensagens internas

Pesquisadores da Wiz sinalizaram outro grande erro de segurança na Microsoft que causou a exposição de 38 terabytes de dados privados durante uma atualização rotineira de material de treinamento de IA de código aberto no GitHub.

Os dados expostos incluem um backup em disco das estações de trabalho de dois funcionários, segredos corporativos, chaves privadas, senhas e mais de 30.000 mensagens internas do Microsoft Teams, disse Wiz em nota que documenta a descoberta.

Wiz, uma startup de segurança de dados em nuvem fundada por ex-engenheiros de software da Microsoft, disse que o problema foi descoberto durante verificações de rotina na Internet em busca de contêineres de armazenamento mal configurados. “Encontramos um repositório GitHub na organização Microsoft chamado transferência de modelos robustos. O repositório pertence à divisão de pesquisa de IA da Microsoft e seu objetivo é fornecer código-fonte aberto e modelos de IA para reconhecimento de imagens”, explicou a empresa.

Ao compartilhar os arquivos, a Microsoft usou um recurso do Azure chamado tokens SAS que permite o compartilhamento de dados de contas de armazenamento do Azure. Embora o nível de acesso possa ser limitado apenas a arquivos específicos; Wiz descobriu que o link foi configurado para compartilhar toda a conta de armazenamento — incluindo outros 38 TB de arquivos privados.

“Esta URL permitiu acesso a mais do que apenas modelos de código aberto. Ele foi configurado para conceder permissões em toda a conta de armazenamento, expondo dados privados adicionais por engano”, Wiz observou.

“Nossa varredura mostra que esta conta continha 38 TB de dados adicionais – incluindo backups de computadores pessoais de funcionários da Microsoft. Os backups continham dados pessoais confidenciais, incluindo senhas de serviços da Microsoft, chaves secretas e mais de 30.000 mensagens internas do Microsoft Teams de 359 funcionários da Microsoft”, acrescentou.

Além do que descreve como escopo de acesso excessivamente permissivo, Wiz descobriu que o token também foi configurado incorretamente para permitir permissões de “controle total” em vez de somente leitura, dando aos invasores o poder de excluir e sobrescrever arquivos existentes.

“Um invasor poderia ter injetado código malicioso em todos os modelos de IA nesta conta de armazenamento, e todos os usuários que confiassem no repositório GitHub da Microsoft teriam sido infectados por ele”, alertou Wiz.

A função principal do repositório agrava as preocupações de segurança. Com a tarefa de fornecer modelos de treinamento de IA, esses projetos vêm em uma forma ‘confirmado‘formato, uma criação do amplamente utilizado TensorFlow e esculpido usando Python salmoura formatador. Wiz observa que o próprio formato pode ser uma porta de entrada para execução arbitrária de código.

“Um invasor poderia ter injetado código malicioso em todos os modelos de IA nesta conta de armazenamento, e todos os usuários que confiassem no repositório GitHub da Microsoft teriam sido infectados por ele”, acrescentou a empresa.

De acordo com Wiz, a equipe de resposta de segurança da Microsoft invalidou o token SAS dois dias após a divulgação inicial em junho deste ano. O token foi substituído no GitHub um mês depois.