A IA turbina a pior forma de conteúdo abusivo na internet e os responsáveis não conseguem acompanhar

Inteligência artificial sem dúvida trouxe muitas ferramentas úteis para a Internet. Mas também entregou um dos formas mais horríveis de abuso, um novo impulso sombrio. Relatórios recentes e descobertas de vigilância apontam para o mesmo padrão feio de IA generativa ajudando os infratores a criar imagens de abuso sexual infantil em maior escala.
Estas estão agora a tornar-se cada vez mais realistas e em formatos cada vez mais difíceis de serem tratados pelas plataformas, reguladores e grupos de segurança infantil.
Como a IA está piorando a escala e tornando o conteúdo mais extremo
Em fevereiro, Reuters revelou que relatos acionáveis de imagens de abuso sexual infantil geradas por IA mais que dobraram nos últimos dois anos, enquanto a Internet Watch Foundation disse mais tarde que identificou 8.029 imagens e vídeos de abuso sexual infantil gerados por IA somente em 2025. Este quadro sombrio também foi apresentado em um Bloomberg relatório sobre como a IA generativa está mudando o cenário de materiais de abuso sexual infantil nos EUA.
Os investigadores não estão mais lidando apenas com imagens e vídeos pornográficos gerados por IA, há até imagens manipuladas de crianças reais e até conversas de chatbot em que os infratores supostamente buscam conselhos de preparação ou encenam abuso sexual. Enquanto isso, as autoridades policiais estão gastando tempo tentando descobrir se uma criança em uma imagem é real, alterada digitalmente ou totalmente falsa.
Casos reais estão ficando mais perturbadores
O relatório aponta para um caso em Minnesota envolvendo William Michael Haslach, monitor de merenda escolar e guarda de trânsito acusado de usar ferramentas de IA para despir digitalmente crianças em fotos que tirou no trabalho. Agentes federais identificaram mais de 90 vítimas e encontraram quase 800 imagens de abuso geradas por IA em seus dispositivos. Isto mostra como os infratores estão cada vez mais usando fotos cotidianas retiradas das redes sociais para criar material explícito.
Os investigadores estão se afogando em volume e pistas ruins
A escala está ficando feia rapidamente. A Bloomberg relata que o NCMEC recebeu 1,5 milhão de relatórios CSAM vinculados à IA em 2025, contra 67.000 no ano anterior e 4.700 em 2023. Ao mesmo tempo, os investigadores dizem que os sistemas automatizados de moderação estão gerando uma enxurrada de dicas inúteis, inundando forças-tarefa já sobrecarregadas. E cada chamada errada queima tempo que poderia ter sido gasto com uma criança que enfrenta danos imediatos.
Source link




