Modelos comuns de IA superaram humanos em inteligência emocional em um estudo recente, mas especialistas nos alertam para olhar além das manchetes.
Com informações de Live Science.

No que parece ser mais um golpe para uma capacidade que pensávamos que os computadores nunca nos superariam, cientistas agora sugerem que a IA entende as emoções melhor do que nós.
Cientistas descobriram que a IA entende as emoções melhor do que nós — obtendo pontuações muito mais altas do que a pessoa média na escolha da resposta correta para amenizar várias situações carregadas de emoção.
Em um novo estudo publicado em 21 de maio no periódico Communications Psychology, cientistas da Universidade de Genebra (UNIGE) e da Universidade de Berna (UniBE) aplicaram testes de inteligência emocional (IE) amplamente utilizados ( STEM , STEU , GEMOK-Blends , GECo Regulation e GECo Management ) a modelos comuns de grandes linguagens (LLMs), incluindo ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Claude 3.5 Haiku, Copilot 365 e DeepSeek V3.
Eles estavam investigando duas coisas: primeiro, comparar o desempenho da IA e de sujeitos humanos e, segundo, a capacidade de criar novas questões de teste que aderissem aos propósitos dos testes de IE.
Ao estudar respostas humanas validadas de estudos anteriores, os LLMs selecionaram a resposta “correta” em testes de inteligência emocional 81% das vezes, com base nas opiniões de especialistas humanos, em comparação com 56% dos humanos.
Quando o ChatGPT foi solicitado a criar novas questões de teste, avaliadores humanos disseram que esses esforços se comparavam aos testes originais em termos de dificuldade equivalente e que eliminavam a percepção de que não estavam parafraseando as questões originais. A correlação entre os testes gerados por IA e os testes originais foi descrita como “forte”, com um coeficiente de correlação de 0,46 (onde 1,0 se refere a uma correlação perfeita e 0 se refere a nenhuma correlação).
A conclusão geral foi que a IA é melhor em “entender” emoções do que nós.
A história mais profunda
Quando a Live Science consultou vários especialistas, um tema comum em suas respostas foi manter a metodologia em mente. Cada um dos testes de IE comumente utilizados era de múltipla escolha — dificilmente aplicável a cenários do mundo real em que as tensões entre as pessoas são altas, apontaram.<
“Vale a pena notar que os humanos nem sempre concordam sobre o que outra pessoa está sentindo, e até mesmo psicólogos podem interpretar sinais emocionais de forma diferente”, disse Taimur Ijlal, especialista em segurança da informação e do setor financeiro . “Portanto, ‘vencer’ um humano em um teste como este não significa necessariamente que a IA tenha uma percepção mais profunda. Significa que ela deu a resposta estatisticamente esperada com mais frequência.”
A habilidade testada pelo estudo não é a inteligência emocional, mas algo mais, acrescentaram. “Os sistemas de IA são excelentes no reconhecimento de padrões, especialmente quando os sinais emocionais seguem uma estrutura reconhecível, como expressões faciais ou sinais linguísticos”, disse Nauman Jaffar, fundador e CEO da CliniScripts — uma ferramenta de documentação com tecnologia de IA desenvolvida para profissionais de saúde mental. “Mas equiparar isso a uma ‘compreensão’ mais profunda das emoções humanas corre o risco de exagerar o que a IA realmente faz.”
Questionários em ambientes estruturados e quantitativos — em vez de uma apreciação das nuances mais profundas que a verdadeira compreensão emocional exige — são onde a IA se destaca, e alguns especialistas apontaram um ponto crucial: que a IA tem melhor desempenho em testes sobre situações emocionais que não são vivenciadas no calor do momento — a maneira como os humanos as vivenciam.
Jason Hennessey, fundador e CEO da Hennessy Digital — que passou anos analisando como sistemas de IA de busca e geração processam a linguagem — compara o estudo ao Teste de Leitura da Mente nos Olhos. Esta é uma ferramenta comum para avaliar o estado emocional de um sujeito e na qual a IA se mostrou promissora. Mas, como disse Hennessey, quando variáveis tão rotineiras quanto a iluminação na foto ou o contexto cultural mudam nesses testes, “a precisão da IA cai vertiginosamente”.
No geral, a maioria dos especialistas considerou um pouco exagerada a afirmação de que a IA “entende” emoções melhor do que os humanos.
“Isso mostra que os LLMs são úteis para categorizar reações emocionais comuns?”, disse Wyatt Mayham, fundador da Northwest IT Consulting. “Claro. Mas é como dizer que alguém é um ótimo terapeuta porque tirou uma boa nota em um teste do BuzzFeed com tema emocional.”
Mas há uma ressalva final, com evidências de que, embora a IA esteja usando reconhecimento de padrões em vez de verdadeira compreensão emocional, ela superou os humanos na identificação e resposta a estados emocionais em pelo menos um exemplo.
O Aílton, uma IA conversacional usada por mais de 6.000 motoristas de caminhão de longa distância no Brasil, é um assistente multimodal do WhatsApp que usa voz, texto e imagens, e seu desenvolvedor, Marcos Alves, CEO e cientista-chefe da HAL-AI, diz que o Aílton identifica estresse, raiva ou tristeza com cerca de 80% de precisão — cerca de 20 pontos acima de seus equivalentes humanos, tudo em contexto dentro de situações emocionais enquanto os motoristas interagem com ele em tempo real.
Em um caso, Aílton respondeu de forma rápida e apropriada quando um motorista enviou uma nota de voz perturbada de 15 segundos após o acidente fatal de um colega, respondendo com condolências sutis, oferecendo recursos de saúde mental e alertando automaticamente os gerentes da frota.
“Sim, vinhetas de texto de múltipla escolha simplificam o reconhecimento de emoções”, disse Alves. “A empatia real é contínua e multimodal. Mas isolar a camada cognitiva é útil. Revela se um LLM consegue identificar pistas emocionais antes de adicionar ruído situacional.”
Ele acrescentou que a capacidade dos LLMs de absorver bilhões de frases e milhares de horas de áudio de conversas significa que eles podem codificar microssinais de entonação que os humanos muitas vezes não percebem. “A estrutura do laboratório é limitada”, disse ele sobre o estudo, “mas nossos dados do WhatsApp confirmam que os LLMs modernos já detectam e respondem melhor do que a maioria das pessoas, oferecendo empatia escalável em larga escala.”









