Pesquisadores da Universidade de Zurique secretamente liberaram um exército de chatbots manipuladores e eles foram mais persuasivos que humanos em fazer as pessoas mudarem de ideia.
Com informações de Live Science.

O Reddit está ameaçando processar um grupo de pesquisadores que usaram chatbots de inteligência artificial (IA) para fazer experimentos secretos com seus usuários.
Cientistas da Universidade de Zurique lançaram um exército de bots de IA no popular fórum do Reddit r/changemyview — onde quase 4 milhões de usuários se reúnem para debater tópicos controversos — para investigar se a tecnologia poderia ser usada para influenciar a opinião pública.
Para atingir esses objetivos, os bots deixaram mais de 1.700 comentários no subreddit, usando uma variedade de disfarces, incluindo uma vítima de estupro minimizando o trauma da agressão; um conselheiro de violência doméstica afirmando que as mulheres mais vulneráveis são aquelas “abrigadas por pais superprotetores”; e um homem negro que se opõe ao movimento Black Lives Matter. Esses bots trabalharam em conjunto com outro que vasculhava os perfis dos usuários para personalizar suas respostas e obter o máximo de persuasão.
Os pesquisadores de Zurique então revelaram o experimento aos moderadores do fórum “como parte de uma etapa de divulgação do estudo”, juntamente com um link para um primeiro rascunho de seus resultados.
“A Equipe de Moderação do CMV precisa informar a comunidade CMV sobre um experimento não autorizado conduzido por pesquisadores da Universidade de Zurique com usuários do CMV”, escreveram os moderadores do subreddit em uma publicação notificando os usuários. “Achamos que isso foi errado. Não achamos que ‘isso nunca foi feito antes’ seja uma desculpa para realizar um experimento como este.”
As descobertas do projeto, que mediram a taxa de sucesso dos bots por meio de uma função do site que permite aos usuários premiar comentários que mudam suas ideias, sugerem que as respostas da IA foram entre três e seis vezes mais persuasivas do que aquelas feitas por humanos.
E os autores, que (contrariando o procedimento acadêmico padrão) não divulgaram seus nomes no rascunho, observaram que, durante todo o teste, usuários desavisados ”nunca levantaram preocupações de que a IA pudesse ter gerado os comentários postados por nossas contas”.
A postagem foi recebida com ira pelos usuários e por Ben Lee, diretor jurídico do Reddit, que em um comentário abaixo da postagem usando o nome de usuário traceroo anunciou que o site entraria com uma ação legal formal contra a Universidade de Zurique.
“O que esta equipe da Universidade de Zurique fez é profundamente errado, tanto moral quanto legalmente”, escreveu Lee. “Viola a pesquisa acadêmica e as normas de direitos humanos, e é proibido pelo contrato e pelas regras do usuário do Reddit, além das regras do subreddit.”
Em resposta, a Universidade de Zurique disse à 404 Media que os pesquisadores não publicariam os resultados do estudo e que, no futuro, seu comitê de ética adotaria um processo de revisão mais rigoroso para eles, em particular coordenando com comunidades online antes que se tornassem sujeitos inconscientes de um experimento em massa.
Independentemente das disputas judiciais que se seguem, experimentos como este destacam a crescente capacidade dos chatbots de se infiltrarem no discurso online. Em março, cientistas revelaram que o GPT-4.5 Large Language Model da OpenAI já era capaz de passar no teste de Turing, enganando com sucesso os participantes do teste, fazendo-os pensar que estavam conversando com outro ser humano em 73% das vezes.
Isso também dá credibilidade à noção de que, se não forem controlados, os chatbots de IA têm o potencial de substituir os humanos na produção da maior parte do conteúdo da internet. Chamada de teoria da “internet morta”, essa ideia é apenas uma teoria da conspiração — pelo menos por enquanto.