O YouTube está terceirizando seu problema de IA para você, e isso é uma péssima ideia

YouTube tem um novo plano para lidar com a onda de IAconteúdo gerado inundando sua plataforma e envolve você. A empresa está agora pedindo aos espectadores que avaliem se um vídeo parece um lixo de IA. Superficialmente, essa parece uma maneira razoável de lidar com conteúdo de IA de baixa qualidade em seu feed. Na prática, pode causar mais problemas do que soluções.
Os humanos são ruins em detectar conteúdo gerado por IA e estão piorando
O problema mais básico desta abordagem é que as pessoas não são boas a detetar conteúdos gerados pela IA e a lacuna entre a deteção humana e a capacidade da IA está a aumentar rapidamente. O conteúdo inicial de IA tinha sinais óbvios, como vozes robóticas, mãos deformadas ou rostos de aparência não natural. Os modelos mais recentes corrigiram amplamente esses problemas.
As vozes agora soam naturais, os rostos são convincentes e as revelações óbvias estão desaparecendo. As ferramentas avançaram claramente, mas os espectadores casuais não acompanharam. E há pesquisas para apoiar isso.
Um recente estudo sobre detecção facial por IA descobriram que as pessoas tiveram um desempenho apenas ligeiramente melhor do que o acaso quando solicitadas a identificar rostos gerados por IA. O que é mais preocupante é que a confiança deles na capacidade de detectar rostos de IA era consistentemente maior do que a precisão real. A pesquisa mostra padrões semelhantes em outros lugares.
UM estudo sobre detecção de deepfake descobriram que as pessoas lutam para detectar deepfakes, mas ainda acreditam que podem, enquanto pesquisa sobre detecção de voz gerada por IA sugere que as vozes da IA são agora quase indistinguíveis das reais para o ouvinte médio.
O histórico do próprio YouTube não ajuda em nada. Um estudo da Kapwing descobriu que cerca de 21% dos primeiros 500 vídeos recomendados para uma nova conta foram classificados como lixo de IA, enquanto uma investigação do The New York Times descobriu que mais de 40% dos Shorts recomendados destinados a crianças em uma sessão de 15 minutos continham conteúdo de IA de baixa qualidade.
Este é um conteúdo que já passou pelos sistemas de revisão humana e automatizada do YouTube. Se esses sistemas deixam passar tanto desperdício de IA, esperar que os espectadores façam melhor parece irrealista.
O sistema de classificação também abre a porta para abusos
Mesmo que os espectadores fossem detectores de IA confiáveis, o novo sistema de classificação está sujeito a abusos. Campanhas coordenadas contra criadores são um problema bem documentado no YouTube, com maus atores visando canais por meio de reportagens em massa e bombardeios antipáticos. Um recurso que permite aos usuários rotular o conteúdo como lixo de IA oferece uma nova ferramenta para explorar. Canais rivais, comunidades furiosas ou grupos organizados poderiam utilizá-lo indevidamente para sinalizar vídeos, independentemente de a IA ter sido realmente usada.
O YouTube não explicou como irá verificar ou avaliar essas classificações, deixando bastante espaço para manipulação. Os criadores que passaram anos a construir o seu público podem agora ter de lidar com um novo risco que tem pouco a ver com a qualidade do seu trabalho. Se o sistema for amplamente implementado sem salvaguardas, poderá acabar prejudicando os criadores legítimos, tanto quanto atingir conteúdo de IA de baixa qualidade.
E o que os espectadores ganham com isso?
Mesmo que o YouTube consiga de alguma forma combater o abuso, há outro problema claro com o sistema: o incentivo. Sinalizar conteúdo de IA exige esforço e algum nível de conhecimento sobre o que as ferramentas de IA são realmente capazes, mas o YouTube não oferece nenhum benefício claro aos espectadores por ajudarem a detectar falhas de IA. A plataforma, por outro lado, obtém um feed mais limpo e um fluxo constante de dados do usuário, sem retribuir muito.
Há também uma preocupação legítima de que nada impeça o YouTube de usar esse feedback para treinar futuros modelos de IA, potencialmente tornando os vídeos gerados por IA ainda mais difíceis de detectar. Com efeito, poderia transformar um sistema destinado a combater os resíduos da IA num sistema que ajudasse a melhorá-lo.
A abordagem do YouTube erra o alvo
O novo sistema de classificação é outra tentativa do YouTube de mostrar que está levando a sério o problema da IA, mas a plataforma ainda não está fazendo o suficiente. Ela não proíbe explicitamente os criadores de postar conteúdo gerado por IA e, embora exija a divulgação de mídia sintética ou alterada por IA, essa regra só se aplica em certos casos. A penalidade de monetização também é limitada, uma vez que depende dos mesmos sistemas de detecção que já estão deixando escapar muito conteúdo de IA de baixa qualidade.
O YouTube ajudou a criar as condições para este problema ao permitir e monetizar conteúdo gerado por IA durante anos, e seus esforços para contê-lo têm falhado a cada passo. Terceirizar a limpeza para os telespectadores, sem explicar como seus dados serão utilizados e sem oferecer nada em troca, trata-os mais como um recurso gratuito do que como uma comunidade. Se o YouTube leva a sério o combate aos problemas de IA, ele precisa ser o dono da solução, em vez de passar o trabalho para quem está assistindo.
Source link




