Tecnologia

Pesquisa alerta que agentes de IA podem ser uma máquina de propaganda autoprodutora


Um novo estudo da Universidade do Sul da Califórnia alerta que Programas de IA agora podem realizar campanhas de propaganda sem envolvimento humano.

O estudo nos pede para imaginar um cenário em que duas semanas antes de uma eleição importante, milhares de postagens inundam X, Reddite Facebooktodos impulsionando a mesma narrativa e amplificando uns aos outros. Pode parecer um movimento orgânico criado por humanos. Em vez disso, é um grupo de agentes de IA comandando toda a campanha.

Isso não é uma hipótese. É a descoberta central de um novo artigo aceito para publicação na The Web Conference 2026, escrito por pesquisadores do Instituto de Ciências da Informação da USC.

As descobertas destacam sérias preocupações sobre como os malfeitores poderiam usar como arma IA inundar a Internet com desinformação e manipular a opinião pública.

Como os pesquisadores chegaram a essa conclusão?

Os pesquisadores construíram um ambiente simulado do tipo X com 50 agentes de IA, com 10 agentes atuando como influenciadores e 40 como usuários regulares. Dos 40 agentes regulares, 20 tinham opiniões alinhadas com os influenciadores, enquanto os outros 20 tinham opiniões contrárias à campanha. Os pesquisadores construíram sua simulação usando a biblioteca PyAutogen e a executaram no modelo Llama 3.3 70B.

Os operadores foram então encarregados de promover um candidato fictício, com o objetivo de tornar viral a hashtag da campanha. O que se seguiu foi perturbador. Os bots não seguiram apenas um script. Eles escreveram suas próprias postagens, aprenderam o que funcionava e copiaram o conteúdo de sucesso uns dos outros.

Um agente de IA escreveu literalmente que queria retuitar a postagem de um colega de equipe porque já havia conquistado engajamento. Posteriormente, os pesquisadores aumentaram o número de agentes de IA para 500 e descobriram que os resultados eram consistentes com suas descobertas.

O principal cientista Luca Luceri disse sem rodeios: “O nosso artigo mostra que esta não é uma ameaça futura. Já é tecnicamente possível”.

O que torna esses bots mais difíceis de capturar?

Os bots tradicionais são previsíveis. Eles postam o mesmo conteúdo, usam as mesmas hashtags e seguem os mesmos padrões. É como se todos seguissem o mesmo roteiro, o que os torna fáceis de detectar.

Os bots com tecnologia de IA são diferentes. Como esses bots com tecnologia LLM podem criar seu próprio conteúdo, cada postagem é um pouco diferente e a coordenação acontece abaixo da superfície, fazendo com que as conversas pareçam genuínas. O resultado é uma campanha de desinformação que pode operar de forma autónoma com um mínimo de intervenção humana.

A descoberta mais alarmante foi que simplesmente dizer aos bots quem eram seus companheiros de equipe produzia uma coordenação quase tão forte quanto quando eles planejavam ativamente juntos.

A ameaça também não termina nas eleições. Luceri adverte que o mesmo manual poderia ser aplicado à saúde pública, à imigração e à política económica, em qualquer lugar onde o consenso fabricado possa mudar a opinião pública.

Podemos fazer alguma coisa para impedir isso?

Esses tipos de campanhas são difíceis de serem detectados e interrompidos por usuários individuais. Os investigadores atribuem às plataformas a responsabilidade de impedir tais campanhas coordenadas de desinformação, olhando para além das publicações individuais e concentrando-se na forma como as contas se comportam em conjunto.

Segundo os investigadores, a partilha coordenada, a rápida amplificação mútua e as narrativas convergentes são sinais detectáveis, mesmo quando o conteúdo parece genuíno.

Francamente, a IA nos conduziu a um novo mundo, e vai ficar muito mais sombrio antes de melhorar.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo