Local

YouTube testa tecnologia de detecção de AI Deepfake para autoridades e jornalistas

Harianjogja.com, JACARTA—A plataforma de vídeo YouTube começou a testar tecnologia de detecção de deepfake baseada em inteligência artificial (IA) com o objetivo de proteger funcionários do governo, candidatos políticos e jornalistas do uso indevido de semelhanças faciais em conteúdo sintético. Este recurso foi projetado para suprimir o potencial de fraudes e manipulação de identidade em espaços públicos digitais.

O YouTube está introduzindo um novo sistema que permite que determinados grupos, incluindo funcionários do governo, candidatos políticos e jornalistas nos Estados Unidos, identifiquem o uso de seus rostos em conteúdo não autorizado de IA. Por meio desse mecanismo, os participantes do programa experimental podem rastrear a aparência de seus rostos em vídeos gerados ou modificados por meio de tecnologia de inteligência artificial.

Se for descoberto o uso não autorizado de imagens faciais, os indivíduos afetados poderão enviar uma solicitação de remoção de vídeo à plataforma. Esta medida faz parte dos esforços do YouTube para mitigar o risco de manipulação de conteúdo visando figuras públicas no diálogo civil global.

A vice-presidente de Assuntos Governamentais e Políticas Públicas do YouTube, Leslie Miller, acredita que esta tecnologia é importante para manter a integridade da conversa pública no espaço digital. Ele enfatizou que o uso indevido da tecnologia de IA para se passar por alguém tem o potencial de ter um grande impacto, especialmente para indivíduos do governo e do setor público.

“Esta expansão tem realmente a ver com a integridade da conversa pública. Sabemos que o risco de personificação de IA é muito alto para aqueles que estão no espaço civil”, disse Miller citado pelo TechCrunch, quarta-feira, (03/11/2026).

Tecnicamente, o sistema de detecção de similaridade facial adota princípios semelhantes ao Content ID, uma tecnologia automática que tem sido usada para identificar violações de direitos autorais em conteúdo de vídeo. A diferença é que esse recurso mais recente se concentra em varreduras faciais simuladas ou reconstruídas usando dispositivos de IA.

Para poder aderir ao programa experimental, os participantes são obrigados a passar por um processo de verificação de identidade. Eles devem enviar uma foto sua ou uma selfie, bem como uma carteira de identidade oficial do governo como prova da autenticidade de sua identidade antes de poderem acessar o sistema de monitoramento.

Depois que uma conta é verificada, os usuários podem verificar quaisquer correspondências visuais detectadas pelo sistema em todas as plataformas. Dessa forma, eles têm mais controle sobre se a aparência do seu rosto em um vídeo viola ou não a política de privacidade.

Além de detectar semelhanças faciais, o YouTube também está explorando tecnologia que permite prevenir uploads de vídeos problemáticos antes que eles apareçam na plataforma. Por outro lado, a empresa também está a considerar um novo modelo de monetização que permitiria a figuras públicas obter receitas se as suas imagens faciais fossem utilizadas em determinados conteúdos, semelhante aos mecanismos de licenciamento de direitos de autor audiovisuais.

Porém, o YouTube ressalta que nem todos os pedidos de remoção de conteúdo serão aprovados imediatamente. Cada relatório ainda será minuciosamente revisado com base nas diretrizes da política de privacidade para manter um equilíbrio entre a proteção individual e a liberdade de expressão.

A plataforma também garante que conteúdos paródicos, de interesse jornalístico ou de crítica política permaneçam protegidos como forma legítima de expressão. O YouTube afirmou que aplicaria esta tecnologia com cuidado para não prejudicar espaços críticos de discussão pública.

O vice-presidente de produtos para criadores do YouTube, Amjad Hanif, acrescentou que a plataforma também ajustará o sistema de rotulagem para conteúdo criado com tecnologia de IA. O nível de visibilidade do rótulo será determinado com base na sensibilidade do tema no vídeo.

Para conteúdo que discute questões delicadas, um rótulo de aviso será exibido em destaque na frente do vídeo. Por outro lado, para conteúdos de baixo risco, como animações ou criações digitais leves, o rótulo provavelmente será incorporado apenas na coluna de descrição do vídeo.

O YouTube considera que nem todo conteúdo que utiliza tecnologia de IA exige um aviso visual marcante se o uso da tecnologia não afetar a substância principal do vídeo.

Os dados dos testes iniciais de cerca de 4 milhões de criadores mostram que o número de pedidos de remoção de conteúdo relacionados com semelhanças faciais ainda é relativamente baixo. A maioria dos casos encontrados foram considerados inofensivos ou até apoiaram as atividades criativas e comerciais dos criadores.

No contexto regulatório, o YouTube também expressou seu apoio ao projeto de lei NO FAKES Act no nível federal dos Estados Unidos. O regulamento visa regular o uso da tecnologia de IA na criação de recriações audiovisuais de uma pessoa sem consentimento legal.

No futuro, o YouTube planeia expandir as capacidades desta tecnologia não só para a detecção facial, mas também para o reconhecimento de voz e protecção de várias outras formas de propriedade intelectual. Este esforço faz parte da estratégia de longo prazo da empresa para enfrentar a ameaça crescente da mídia sintética na era da inteligência artificial.

Confira outras notícias e artigos em Google Notícias

Source

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo