Aqui está um fato preocupante. Um carro autônomo andando pela rodovia e trafegando pelo trânsito tem menos compreensão do que pode causar um acidente do que uma criança que está apenas aprendendo a andar.

Um novo experimento mostra como é difícil até mesmo os melhores sistemas de inteligência artificial compreenderem a física rudimentar, causa e efeito. Também oferece um caminho para a construção de sistemas de IA que podem aprender porque coisas acontecem.

O experimento foi projetado “para ir além do reconhecimento de padrões”, diz Josh Tenenbaum, professor do Center for Brains Minds & Machines do MIT, que liderou o trabalho. “As grandes empresas de tecnologia adorariam ter sistemas que possam fazer esse tipo de coisa.”

A técnica de IA de ponta mais popular, o aprendizado profundo, apresentou alguns avanços impressionantes nos últimos anos, alimentando entusiasmo com o potencial da IA. Envolve alimentar uma grande aproximação de uma rede neural em grandes quantidades de dados de treinamento. Os algoritmos de aprendizado profundo podem frequentemente identificar padrões nos dados de maneira bonita, permitindo feitos impressionantes de reconhecimento de imagem e voz. Mas eles não têm outras capacidades que são triviais para os seres humanos.

Para demonstrar a falha, Tenenbaum e seus colaboradores construíram um tipo de teste de inteligência para sistemas de IA. Envolve mostrar a um programa de IA um mundo virtual simples, cheio de alguns objetos em movimento, juntamente com perguntas e respostas sobre a cena e o que está acontecendo. As perguntas e respostas são rotuladas, semelhante à maneira como um sistema de IA aprende a reconhecer um gato, sendo mostradas centenas de imagens rotuladas como “gato”.

Os sistemas que usam aprendizado de máquina avançado exibiram um grande ponto cego. Foi feita uma pergunta descritiva como “Que cor é esse objeto?” um algoritmo de inteligência artificial de ponta acertará em mais de 90% das vezes. Mas quando colocaram perguntas mais complexas sobre a cena, como “O que causou a bola colidir com o cubo?” ou “O que teria acontecido se os objetos não tivessem colidido?” o mesmo sistema responde corretamente apenas em 10% das vezes.

imagem do artigo

O Guia WIRED de Inteligência Artificial

Os algoritmos do supersmart não aceitam todos os trabalhos, mas estão aprendendo mais rápido do que nunca, fazendo de tudo, desde diagnósticos médicos até a exibição de anúncios.

David Cox, diretor do Laboratório de IA Watson do MIT-IBM, envolvido no trabalho, diz que entender a causalidade é fundamentalmente importante para a IA. “Nós, como seres humanos, temos a capacidade de raciocinar sobre causa e efeito, e precisamos ter sistemas de IA que possam fazer o mesmo.”

A falta de entendimento causal também pode ter consequências reais. Os robôs industriais podem sentir cada vez mais objetos próximos, a fim de agarrá-los ou movê-los. Mas eles não sabem que bater em algo fará com que ele caia ou quebre, a menos que tenha sido especificamente programado – e é impossível prever todos os cenários possíveis.

Se um robô puder raciocinar causalmente, no entanto, poderá evitar problemas que não foram programados para entender. O mesmo vale para um carro autônomo. Poderia saber instintivamente que, se um caminhão desviar e bater em uma barreira, sua carga poderá derramar na estrada.

O raciocínio causal seria útil para praticamente qualquer sistema de IA. Os sistemas treinados em informações médicas em vez de cenas em 3-D precisam entender a causa da doença e o resultado provável de possíveis intervenções. O raciocínio causal é de crescente interesse para muitas figuras proeminentes na IA. “Tudo isso está direcionado para sistemas de IA que podem não apenas aprender, mas também raciocinar”, diz Cox.

O teste elaborado por Tenenbaum é importante, diz Kun Zhang, professor assistente que trabalha em inferência causal e aprendizado de máquina na Universidade Carnegie Mellon, porque fornece uma boa maneira de medir o entendimento causal, embora em um ambiente muito limitado. “O desenvolvimento de sistemas de IA de propósito mais geral se beneficiará enormemente de métodos para inferência causal e aprendizado de representação”, diz ele.



Fonte