Para ajudar a identificar quando os tensos debates online estão se aproximando de um colapso irremediável, os pesquisadores da Cornell University desenvolveram uma ferramenta de inteligência artificial que pode rastrear essas conversas em tempo real, detectar quando as tensões estão aumentando e afastar os usuários do uso de linguagem incendiária.

A pesquisa mostra sinais promissores de que os métodos de previsão de conversação no campo do processamento de linguagem natural podem ser úteis para ajudar moderadores e usuários a diminuir proativamente o vitríolo e manter fóruns de debate saudáveis ​​e produtivos.

“Debatedores bem-intencionados são apenas humanos. No meio de um debate acalorado, sobre um assunto de que você gosta muito, pode ser fácil reagir emocionalmente e só perceber depois do fato”, disse Jonathan Chang, aluno de doutorado em o campo da ciência da computação. A ideia não é dizer aos usuários o que dizer, disse Chang, mas encorajar os usuários a se comunicarem pessoalmente.

A ferramenta, chamada ConvoWizard, é uma extensão de navegador alimentada por uma rede neural profunda. Essa rede foi treinada em montanhas de dados baseados em linguagem extraídos do subreddit Change My View, um fórum que prioriza debates de boa fé sobre assuntos potencialmente acalorados relacionados à política, economia e cultura.

Quando os usuários participantes do Change My View ativam o ConvoWizard, a ferramenta pode informá-los quando a conversa está começando a ficar tensa. Ele também pode informar aos usuários, em tempo real, enquanto eles escrevem suas respostas, se o comentário provavelmente aumentará a tensão. O estudo sugere que o feedback alimentado por IA pode ser eficaz para orientar o usuário em direção a uma linguagem que eleva o debate construtivo, disseram os pesquisadores.

“O ConvoWizard está basicamente perguntando: ‘Se este comentário for postado, isso aumentará ou diminuirá a tensão estimada na conversa?’ Se o comentário aumentar a tensão, o ConvoWizard daria um aviso”, disse Chang. A caixa de texto ficaria vermelha, por exemplo. “A ferramenta segue essa linha de dar feedback sem desviar para o território perigoso de dizer a eles para fazer isso ou aquilo.”

Para testar o ConvoWizard, os pesquisadores da Cornell colaboraram com o subreddit Change My View, onde cerca de 50 moderadores e membros participantes do fórum colocaram a ferramenta em uso. As descobertas foram positivas: 68% sentiram que as estimativas de risco da ferramenta eram tão boas ou melhores do que sua própria intuição, e mais da metade dos participantes relatou que os avisos do ConvoWizard os impediram de postar um comentário do qual se arrependeriam mais tarde.

Chang também observou que, antes de usar o ConvoWizard, os participantes foram questionados se já haviam postado algo de que se arrependiam. Mais da metade disse que sim.

“Essas descobertas confirmam que, sim, mesmo usuários bem-intencionados podem cair nesse tipo de comportamento e se sentir mal com isso”, disse ele.

“É empolgante pensar em como ferramentas baseadas em IA, como o ConvoWizard, podem permitir um paradigma completamente novo para encorajar discussões online de alta qualidade, capacitando diretamente os participantes dessas discussões a usar suas próprias intuições, em vez de censurá-las ou restringi-las”, disse Cristian Danescu-Niculescu-Mizil, professor associado de ciência da informação.

Com informações de Science Daily.