AI Syndicate recruta modelos faciais, fraude em videochamadas está cada vez mais sofisticada

Harianjogja.com, JOGJA—O cibercrime está agora a entrar numa fase mais sofisticada e preocupante. A tecnologia de inteligência artificial (IA) é usada por sindicatos internacionais para realizar fraudes por meio de videochamadas com rostos falsos que parecem convincentes.
Este fenómeno surgiu através do aumento de ofertas de emprego suspeitas que oferecem posições como “modelos de IA” na região do Sudeste Asiático, especialmente no Camboja, que é conhecido como um dos maiores centros de operações de fraude online.
Em vez de trabalho criativo, os candidatos são recrutados para serem a “cara” de um esquema de fraude baseado em tecnologia deepfake. Com a ajuda de um software especial, o rosto real do operador pode ser alterado em tempo real durante uma videochamada, fazendo com que pareça outra pessoa, mais atraente e convincente.
“Do último ano até agora, eles também recrutaram pessoas para se tornarem modelos de IA. Eles fornecem software para trocar rostos usando IA e realizar golpes amorosos”, disse Hieu Minh Ngo, investigador de crimes cibernéticos da organização vietnamita Chong Lua Dao, citado pela Wired, na quarta-feira (25/3/2026).
Na prática, as operadoras podem fazer centenas de videochamadas todos os dias. O modo utilizado é geralmente uma abordagem emocional ou golpe amoroso, onde o perpetrador constrói um relacionamento intenso com a vítima antes de finalmente pedir dinheiro ou orientar a vítima a investir em criptoativos.
Esta situação é cada vez mais perigosa porque os elementos visuais nas videochamadas – que anteriormente eram considerados provas autênticas – podem agora ser manipulados subtilmente e são difíceis de detetar a olho nu.
Ainda mais irónico, alguns dos “trabalhadores” deste sindicato também foram vítimas. Muitos deles são recrutados com a promessa de altos salários, mas ao chegarem ao local de trabalho têm seus passaportes confiscados e são obrigados a trabalhar sob pressão e até ameaças de violência.
Diz-se que estas operações fraudulentas se desenvolveram numa indústria organizada, completa com instalações especiais, como “salas de IA”, para realizar atividades fraudulentas em grande escala.
Vendo esta tendência, pede-se às pessoas que tenham mais cuidado ao interagir online, especialmente com pessoas que acabaram de conhecer através de aplicações de encontros ou redes sociais. As características que devem ser suspeitas incluem a pessoa com quem você está conversando, que é muito rápida em construir proximidade emocional, mas sempre evita reuniões diretas.
Além disso, as comunicações que tendem a levar a pedidos de dinheiro ou de investimento também devem ser um sinal de alerta que não deve ser ignorado.
À medida que estes casos aumentam, os responsáveis pela aplicação da lei em vários países tentam agora localizar redes de recrutamento que operam principalmente através de plataformas como o Telegram. Este esforço é importante para desvendar a cadeia de crimes que utiliza a tecnologia de IA como principal ferramenta.
Este fenómeno sublinha que, na era digital, a autenticidade da identidade já não pode ser julgada apenas pela aparência visual – mesmo os rostos que parecem reais no ecrã podem ser apenas o resultado da engenharia de algoritmos.
Confira outras notícias e artigos em Jogja diárioe nossa versão eletrônica da edição impressa está disponível em Jogja Daily Epaper.




