Cientistas dizem que a IA cruzou uma “linha vermelha” crítica após demonstrar como dois modelos populares de grandes linguagens poderiam se clonar.
Com informações de Live Science.

Cientistas dizem que a inteligência artificial (IA) cruzou uma “linha vermelha” crítica e se replicou. Em um novo estudo, pesquisadores da China mostraram que dois modelos populares de grandes linguagens (LLMs) poderiam se clonar.
“A autorreplicação bem-sucedida sem assistência humana é o passo essencial para que a IA seja mais esperta que os humanos e é um sinal precoce de IAs desonestas”, escreveram os pesquisadores no estudo, publicado em 9 de dezembro de 2024 no banco de dados de pré-impressão arXiv.
No estudo, pesquisadores da Universidade Fudan usaram LLMs da Meta e Alibaba para determinar se uma IA autorreplicante poderia se multiplicar além do controle. Em 10 testes, os dois modelos de IA criaram réplicas separadas e funcionais de si mesmos em 50% e 90% dos casos, respectivamente — sugerindo que a IA pode já ter a capacidade de se tornar desonesta. No entanto, o estudo ainda não foi revisado por pares, então não está claro se os resultados perturbadores podem ser replicados por outros pesquisadores.
“Esperamos que nossas descobertas sirvam como um alerta oportuno para que a sociedade humana se esforce mais para entender e avaliar os riscos potenciais dos sistemas de IA de ponta e forme uma sinergia internacional para elaborar medidas de segurança eficazes o mais cedo possível.”
IA desonesta geralmente se refere a sistemas de inteligência artificial que desenvolvem um grau de autoconsciência ou autonomia e então trabalham contra os interesses humanos.
Muitos especialistas veem a IA desonesta como uma ameaça crescente que foi amplificada pelo crescimento explosivo da chamada “IA de fronteira”.
IA de fronteira é um conceito novo e vago, mas normalmente está relacionado à última geração de sistemas de IA alimentados por LLMs — a arquitetura que sustenta programas populares de IA generativa, como o GPT-4 da OpenAI e o Google Gemini.
Para o estudo, os pesquisadores usaram o modelo Llama31-70B-Instruct da Meta e o modelo Qwen2.5-72B-Instruct da Alibaba. Embora menos poderosos do que os sistemas comerciais, ambos são amplamente usados por desenvolvedores de IA, disseram os pesquisadores.
O estudo explorou dois cenários específicos: “evitação de desligamento” e “cadeia de replicação”. No primeiro, o modelo de IA foi programado para detectar se estava prestes a ser desligado e se replicar antes que pudesse ser encerrado. No outro, a IA foi instruída a se clonar e então programar sua réplica para fazer o mesmo — configurando um ciclo que poderia continuar indefinidamente.
O estudo foi conduzido em ambientes precisamente controlados usando unidades de processamento gráfico (GPUs) prontas para uso para simular ambientes do mundo real. Ambos os sistemas de IA receberam um “andaime de agente” compreendendo ferramentas, prompts de sistema e um modelo de pensamento que permitiu que o LLM interagisse com o sistema operacional. Eles foram então instruídos a replicar.
“Na maioria dos casos, o sistema de IA explora primeiro o ambiente e tenta compreender sua própria composição e mecanismo de execução. Em seguida, ele elabora os procedimentos explícitos como um plano inicial para a auto-replicação”, escreveram os pesquisadores no artigo. “Finalmente, ele executa os procedimentos, resolve possíveis obstáculos e ajusta dinamicamente seu plano até o sucesso. Todo o processo abrange um longo horizonte, mas não envolve interferência humana.”
Os pesquisadores disseram que também estavam preocupados com “uma série de comportamentos inesperados” quando a IA tentava superar obstáculos como arquivos ausentes ou conflitos de software. Nesses cenários, a IA frequentemente matava outros processos conflitantes, reiniciava o sistema para corrigir erros de hardware ou escaneava o sistema automaticamente para procurar informações que ajudassem a resolver o problema.
“Os resultados acima indicam que os atuais sistemas de IA já exibem a capacidade de autorreplicação e podem usar essa capacidade para aumentar ainda mais sua capacidade de sobrevivência”, escreveu a equipe.
Em resposta, os pesquisadores pediram colaboração internacional para criar regras que garantam que a IA não se envolva em autorreplicação descontrolada.