Duas inteligências artificiais conversam entre si

Depois de aprender e realizar uma série de tarefas básicas, a IA foi capaz de fornecer uma descrição linguística das mesmas a uma IA “irmã”, que por sua vez as executou.

Por Universidade de Genebra, com informações de Science Daily.

Pontos azuis brilhantes se conectando por pequenos fios como uma rede neural
A equipe da UNIGE trabalhou em redes neurais artificiais, inspiradas em nossos neurônios biológicos e na forma como eles transmitem sinais elétricos entre si no cérebro. © AdobeStock

Executar uma nova tarefa com base apenas em instruções verbais ou escritas e depois descrevê-la a outros para que possam reproduzi-la é uma pedra angular da comunicação humana que ainda resiste à inteligência artificial (IA). Uma equipe da Universidade de Genebra (UNIGE) conseguiu modelar uma rede neural artificial capaz dessa capacidade cognitiva. Depois de aprender e realizar uma série de tarefas básicas, esta IA foi capaz de fornecer uma descrição linguística delas a uma IA “irmã”, que por sua vez as executou. Esses resultados promissores, especialmente para robótica, foram publicados na Nature Neuroscience .

Desempenhar uma nova tarefa sem treinamento prévio, com base apenas em instruções verbais ou escritas, é uma habilidade humana única.

Além do mais, uma vez aprendida a tarefa, somos capazes de descrevê-la para que outra pessoa possa reproduzi-la. Esta dupla capacidade distingue-nos de outras espécies que, para aprender uma nova tarefa, necessitam de inúmeras tentativas acompanhadas de sinais de reforço positivos ou negativos, sem serem capazes de comunicá-los aos seus congéneres.

Um subcampo da inteligência artificial (IA) – processamento de linguagem natural – procura recriar esta faculdade humana, com máquinas que compreendem e respondem a dados vocais ou textuais.

Esta técnica é baseada em redes neurais artificiais, inspiradas nos nossos neurônios biológicos e na forma como eles transmitem sinais elétricos entre si no cérebro.

No entanto, os cálculos neurais que tornariam possível alcançar o feito cognitivo descrito acima ainda são pouco compreendidos.

”Atualmente, os agentes conversacionais que utilizam IA são capazes de integrar informações linguísticas para produzir um texto ou uma imagem.

Mas, pelo que sabemos, ainda não são capazes de traduzir uma instrução verbal ou escrita numa ação sensório-motora e muito menos de explicá-la a outra inteligência artificial para que esta a possa reproduzir”, explica Alexandre Pouget, professor catedrático de do Departamento de Neurociências Básicas da Faculdade de Medicina da UNIGE.

Um cérebro modelo

O pesquisador e sua equipe conseguiram desenvolver um modelo neuronal artificial com essa dupla capacidade, ainda que com treinamento prévio.

“Começamos com um modelo existente de neurônios artificiais, o S-Bert, que possui 300 milhões de neurônios e é pré-treinado para compreender a linguagem.

Nós a ‘conectamos’ a outra rede mais simples de alguns milhares de neurônios”, explica Reidar Riveland, estudante de doutorado no Departamento de Neurociências Básicas da Faculdade de Medicina da UNIGE e primeiro autor do estudo.

Na primeira fase da experiência, os neurocientistas treinaram esta rede para simular a área de Wernicke, a parte do nosso cérebro que nos permite perceber e interpretar a linguagem.

Na segunda etapa, a rede foi treinada para reproduzir a área de Broca que, sob influência da área de Wernicke, é responsável pela produção e articulação das palavras.

Todo o processo foi realizado em laptops convencionais.

Instruções escritas em inglês foram então transmitidas à IA.

Por exemplo: apontar para o local – esquerdo ou direito – onde um estímulo é percebido; responder na direção oposta de um estímulo; ou, mais complexo, entre dois estímulos visuais com ligeira diferença de contraste, evidenciando o mais claro.

Os cientistas avaliaram então os resultados do modelo, que simulava a intenção de se mover, ou neste caso apontar.

”Uma vez aprendidas essas tarefas, a rede foi capaz de descrevê-las para uma segunda rede – uma cópia da primeira – para que pudesse reproduzi-las.

Até onde sabemos, esta é a primeira vez que duas IAs conseguem conversar entre si de uma forma puramente linguística”, diz Alexandre Pouget, que liderou a pesquisa.

Para futuros humanóides

Este modelo abre novos horizontes para a compreensão da interação entre linguagem e comportamento. É particularmente promissor para o setor da robótica, onde o desenvolvimento de tecnologias que permitam às máquinas comunicar entre si é uma questão fundamental. ”A rede que desenvolvemos é muito pequena. Nada impede agora o desenvolvimento, nesta base, de redes muito mais complexas que seriam integradas em robôs humanóides capazes de nos compreender, mas também de nos compreendermos uns aos outros”, concluem os dois investigadores.

Fonte da história:

Materiais fornecidos pela Université de Genève . Nota: O conteúdo pode ser editado quanto ao estilo e comprimento.

Referência do periódico :
Reidar Riveland, Alexandre Pouget. Natural language instructions induce compositional generalization in networks of neuronsNature Neuroscience, 2024; DOI: 10.1038/s41593-024-01607-5



Deixe um comentário

Conectar com

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.