Tecnologia

A IA impulsionou uma das piores formas de conteúdo abusivo na internet


Enquanto o progresso de A IA trouxe uma onda de ferramentas úteistambém está amplificando alguns dos cantos mais sombrios da Internet.

Um novo relatório da IWF (Internet Watch Foundation) revelou um aumento acentuado na Gerado por IA material de abuso sexual infantil (CSAM) online em 2025. Ele destaca como a IA generativa está sendo mal utilizada em grande escala. Este não é apenas um pequeno salto; é a prova de como esse tipo de conteúdo está sendo criado e distribuído.

Por que esta notícia é alarmante

De acordo com a IWF, mais de 8.000 imagens e vídeos de conteúdo abusivo gerados por IA foram identificados em 2025, o que marcou um aumento de 14% ano após ano. Mas o que é mais preocupante é o aumento do conteúdo de vídeo. O relatório afirmou que há um aumento de mais de 260 vezes nos vídeos gerados por IA, muitos dos quais se enquadram na categoria mais grave de abuso.

Na verdade, cerca de 65% dos vídeos analisados ​​foram classificados como do tipo mais extremo. Isto sublinha a gravidade do problema.

Como a IA está reduzindo a barreira ao conteúdo prejudicial

A maior mudança não é nem o volume – é a acessibilidade.

Especialistas dizem que as ferramentas generativas de IA estão tornando significativamente mais fácil a criação de material realista de abuso. Alguns desses sistemas podem gerar imagens e vídeos realistas, manipular fotos existentes e produzir conteúdo em grande escala com o mínimo de esforço. Essa combinação permite que agentes mal-intencionados criem e distribuam materiais nocivos de forma mais rápida e barata do que nunca.

No passado, conteúdos perigosos como este eram normalmente associados ao teia escura. Mas o relatório destacou quanto do material gerado pela IA está agora a ser encontrado na web aberta, em vez de estar limitado a cantos escondidos da Internet. Isto torna a detecção mais difícil, a moderação mais complexa e aumenta o risco de exposição.

Por que não há solução fácil

O conteúdo gerado por IA introduz uma nova camada de dificuldade para as autoridades e plataformas. Como o material pode ser totalmente sintético ou derivado de imagens reais, traçar a origem ou identificar as vítimas torna-se muito mais difícil. A remoção desse tipo de conteúdo é outro obstáculo. Com a rápida evolução das ferramentas de IA, as salvaguardas costumam ser atualizadas.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo