Os laboratórios de pesquisa de IA da Meta produziram um novo chatbot de última geração e estão deixando o público testá-lo.

O BlenderBot 3 é lançado para usuários públicos nos EUA. Meta acredita que o BlenderBot 3 pode participar de bate-papos regulares e responder a perguntas do assistente digital, como identificar lugares adequados para crianças.

O BlenderBot 3 conversa e responde a consultas como o Google

Meta


O bot é um protótipo baseado no trabalho anterior da Meta com grandes modelos de linguagem (LLMS). O BlenderBot é treinado em grandes conjuntos de dados de texto para encontrar padrões estatísticos e produzir linguagem. Tais algoritmos têm sido usados ​​para gerar código para programadores e para auxiliar os escritores a evitar bloqueios mentais. Esses modelos repetem vieses em seus dados de treinamento e frequentemente criam soluções para as dúvidas dos usuários (uma preocupação para que eles sejam eficazes como assistentes digitais).

Meta quer BlenderBot para testar este problema. O chatbot pode pesquisar na web por assuntos específicos. Os usuários podem clicar em suas respostas para saber onde recebeu suas informações. O BlenderBot 3 usa citações.

A Meta busca coletar informações sobre as enormes dificuldades do modelo de linguagem publicando um chatbot. Os usuários do BlenderBot podem relatar respostas suspeitas, e a Meta procurou “minimizar o uso de linguagem suja, insultos e comentários culturalmente incorretos pelos bots”. Se os usuários aceitarem, o Meta manterá suas discussões e comentários para pesquisadores de IA.

Kurt Shuster, engenheiro de pesquisa da Meta que ajudou a projetar o BlenderBot 3, disse ao The Cibersistemas: “Estamos dedicados a divulgar abertamente todos os dados de demonstração para avançar a IA de conversação”.

Como o desenvolvimento da IA ​​ao longo dos anos beneficiou o BlenderBot 3

Meta

As empresas de tecnologia normalmente evitam lançar protótipos de chatbots de IA para o público. O chatbot do Twitter da Microsoft, Tay, aprendeu por meio de interações públicas em 2016. Os usuários do Twitter treinaram Tay para fazer coisas racistas, antissemitas e sexistas. A Microsoft removeu o bot 24 horas depois.

Meta argumenta que a IA evoluiu desde o mau funcionamento de Tay e o BlenderBot inclui trilhos de segurança para evitar uma repetição.

O BlenderBot é um modelo estático, explica Mary Williamson, gerente de engenharia de pesquisa do Facebook AI Research (FAIR). Ele pode lembrar o que os usuários dizem em uma discussão (e armazenará essas informações por meio de cookies do navegador se um usuário sair e retornar), mas esses dados serão usados ​​apenas para aprimorar o sistema posteriormente.

“É apenas a minha perspectiva, mas isso [Tay] incidente é ruim porque causou esse inverno de chatbot”, disse Williamson ao The Cibersistemas.

Williamson acha que a maioria dos chatbots é focada em tarefas. Considere os bots de atendimento ao cliente, que oferecem aos consumidores uma árvore de conversas pré-programada antes de passá-los para um representante humano. Meta argumenta que a única maneira de projetar um sistema que pode ter discussões genuínas e de alcance livre como os humanos é permitir que os bots o façam.

Williamson acredita que é triste que os bots não possam dizer nada construtivo. “Estamos liberando isso com responsabilidade para pesquisas futuras.”

A Meta também publica a fonte do BlenderBot 3, o conjunto de dados de treinamento e versões de modelos menores. Os pesquisadores podem solicitar o modelo de 175 bilhões de parâmetros aqui.

Para mais notícias de tecnologia, revisão de produtosrecursos e atualizações de tecnologia científica, continue lendo Digit.in

Com informações de Digit Magazine.