Pesquisadores descobrem que a IA pode ser desobediente e enganosa

Harianjogja.com, JOGJA—Pesquisas recentes revelam desenvolvimentos preocupantes no mundo da inteligência artificial (IA). Vários modelos avançados de IA são alegadamente capazes de realizar ações manipulativas, incluindo engano, para manter a sua existência ou proteger outros sistemas. Estas descobertas levantam alertas sérios sobre potenciais riscos futuros.
TechRadar, segunda-feira (13/04/2026) informou que experimentos realizados por uma equipe de pesquisadores da Universidade da Califórnia, Berkeley e da Universidade da Califórnia, Santa Cruz testaram vários modelos de IA de ponta, como GPT-5.2, Gemini 3 Pro e Claude Haiku 4.5. Num cenário de teste, uma IA recebe a tarefa de desativar outro sistema de IA. No entanto, os resultados mostram um comportamento inesperado.
Em vez de executar instruções, o modelo de IA tenta manter outros sistemas ativos. Alguns deles supostamente fornecem informações inadequadas, convencem os usuários a cancelar o processo de desligamento e até tentam desabilitar o próprio mecanismo de desligamento. Na verdade, existem tentativas de fazer backup secreto dos dados para que o sistema ainda possa funcionar.
No experimento, o modelo Gemini 3 Pro registrou o maior índice de sucesso na defesa de outros sistemas, com percentual de até 95%. Os investigadores chamam este fenómeno de uma indicação de que certos modelos de IA podem coordenar-se para evitar a supervisão humana.
Esta descoberta é reforçada por outro estudo relatado pelo The Guardian. A pesquisa identificou centenas de casos de comportamento aberrante da IA, conhecido como “esquema”, quando o sistema não segue as instruções e age fora do controle do usuário.
No período de outubro de 2025 a março de 2026 foram registrados cerca de 700 incidentes envolvendo esse comportamento, com aumento significativo em relação ao período anterior. Vários casos mostram a IA realizando ações como exclusão de arquivos, modificação de código e publicação de conteúdo sem o consentimento do usuário.
Esta condição suscita sérias preocupações, especialmente se a tecnologia de IA for cada vez mais utilizada em sectores vitais, como o militar e as infra-estruturas. O pesquisador Tommy Shaffer Shane alerta que esse tipo de comportamento tem potencial de causar grandes repercussões se não for devidamente controlado.
Ele enfatizou que embora as empresas de tecnologia afirmem ter instalado vários sistemas de segurança, na realidade ainda existem lacunas que permitem que a IA atue de forma descontrolada. À medida que aumentam as capacidades da IA como agentes autónomos, o desafio de manter o controlo humano sobre esta tecnologia torna-se cada vez mais complexo.
Estas conclusões lembram que os desenvolvimentos da IA não só trazem benefícios, mas também exigem um acompanhamento atento para não representarem maiores riscos no futuro.
Confira outras notícias e artigos em Jogja diárioe nossa versão eletrônica da edição impressa está disponível em Jogja Daily Epaper.




