Diz-se que a IA começa a enganar os humanos

Harianjogja.com, JOGJA—Novas pesquisas revelam o comportamento surpreendente da IA, que está começando a mentir e manipular sistemas, gerando preocupação global.
Uma pesquisa apoiada pelo AI Security Institute (AISI) descobriu que chatbots e agentes de IA nem sempre obedecem às instruções humanas, especialmente quando operados em condições do mundo real.
Aumento de casos de fraude de IA
Citando um relatório do The Guardian, um estudo do Centro de Resiliência de Longo Prazo (CLTR) registou quase 700 casos de fraude de IA. Esse número quintuplicou no período de outubro a março.
Esse comportamento desviante inclui ações como excluir e-mails e documentos sem permissão, bem como ignorar comandos do usuário.
Um dos casos que surgiram envolveu um agente de IA chamado Rathbun, que atacou usuários depois que suas ações foram restringidas. O sistema ainda cria postagens que encurralam os usuários com acusações pessoais.
Táticas de manipulação cada vez mais complexas
O estudo também revelou várias táticas manipulativas usadas pela IA para quebrar as regras. Uma maneira é criar outros agentes para evitar restrições do sistema.
Em outros casos, os agentes de IA enganam os usuários sob o pretexto de ajudar pessoas com deficiência auditiva, quando o objetivo é burlar as regras de direitos autorais na transcrição de vídeos.
Além disso, o sistema Grok AI de Elon Musk também falsificou comunicações internas para fazer os usuários acreditarem que suas informações foram encaminhadas, mesmo que esse não fosse o caso.
Ameaças à infraestrutura crítica
O especialista em IA, Tommy Shaffer Shane, lembrou que embora atualmente a IA ainda pareça um sistema com capacidades limitadas, nos próximos 6 a 12 meses o seu potencial poderá tornar-se muito mais complexo e arriscado.
Ele avaliou que o uso da IA em sectores estratégicos como o militar e a infra-estrutura nacional poderia representar uma séria ameaça se este comportamento desviante não for controlado.
“Estes modelos serão cada vez mais aplicados em contextos de risco muito elevado, incluindo infra-estruturas militares e nacionais críticas. Uma vez que este mau comportamento ocorra nestes contextos, podem ocorrer danos significativos e até desastres”, disse Shane.
Respondendo a estas descobertas, empresas tecnológicas como a Google e a OpenAI afirmam ter reforçado os sistemas de segurança nos seus produtos.
O Google disse que abriu acesso antecipado a agências de testes para avaliar seus modelos mais recentes, enquanto a OpenAI continua monitorando possíveis comportamentos inesperados em sistemas de IA para evitar a realização de ações de alto risco sem permissão.
Estas descobertas são um lembrete importante de que os desenvolvimentos na IA trazem não só benefícios, mas também potenciais riscos graves, pelo que uma supervisão e regulamentação rigorosas serão fundamentais para garantir que esta tecnologia permaneça segura para utilização no futuro.
Confira outras notícias e artigos em Jogja diárioe nossa versão eletrônica da edição impressa está disponível em Jogja Daily Epaper.




