Elon Musk reprime usuários cruéis do X que lucram com a postagem de vídeos de IA do Oriente Médio devastado pela guerra

Elon Musk tomou medidas para reprimir os usuários X que lucram com vídeos gerados por inteligência artificial que retratam o Oriente Médio assolado pela guerra.
A empresa de mídia social disse que os usuários que postarem vídeos de guerra feitos por IA sem rotulá-los claramente serão suspensos do programa de monetização de X por 90 dias.
Quaisquer violações subsequentes resultarão na remoção permanente do programa, disse o chefe de produto da empresa, Nikita Bier. anunciado Terça-feira.
Bier alertou que ‘com a situação de hoje IA tecnologias, é trivial criar conteúdo que possa enganar as pessoas.’
“Em tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas no terreno”, escreveu ele.
A nova política surge depois dos EUA e Israel chocado Irã no sábado, mergulhando a região na guerra e desencadeando uma onda de postagens enganosas geradas por IA nas redes sociais.
Um dos hediondos vídeos falsos incluía fotos de supostos soldados israelenses chorando de medo, supostamente diante de um ataque iraniano. Esse clipe tem mais de 1,4 milhão de visualizações.
Outro clipe fabricado e visto por mais de 2,1 milhões de pessoas mostrou o Burj Khalifa de Dubai completamente envolto em chamas após supostamente ter sido atacado pelo Irã.
Um vídeo separado postado no X afirmava mostrar ‘Mísseis iranianos atingiram[ting] centro de Israel,‘ com imagens que parecem retratar uma grande explosão em um prédio.
Na realidade, o clipe foi gerado por IA – e foi marcado como tal pelos usuários do X.
A empresa disse na terça-feira que o conteúdo feito por IA seria marcado por meio de notas de crowdsourcing de usuários ou por metadados e outros sinais que indicam ferramentas generativas de IA.
Outro vídeo partilhado no X alegou falsamente que os mísseis balísticos iranianos tinham destruído “tudo no seu caminho” em Tel Aviv.
As imagens geradas por IA mostraram o que parecia ser uma chuva de foguetes caindo sobre a cidade mediterrânea.
Explosões e nuvens de fumaça podiam ser vistas à distância, enquanto o usuário aparentemente filmava a imagem ampliando o zoom.
Noutra publicação, um ataque a um aeroporto israelita não identificado foi descrito e aparentemente capturado em vídeo.
No entanto, as cenas aparentemente aterrorizantes foram, na verdade, inteiramente fabricadas pela IA.
Participe do debate
As plataformas de mídia social deveriam policiar o conteúdo de guerra gerado pela IA ou confiar que os próprios usuários detectariam falsificações?
Algumas maneiras de detectar se um vídeo foi gerado por IA incluem baixa qualidade de imagem e durações muito curtas, de acordo com o BBC.
Alguns bots de IA também usam informações desatualizadas, que podem aparecer em vídeos e representar locais de maneira imprecisa.
Texturas estranhas ou uma aparência quase retocada também podem ser indicadores de conteúdo gerado por IA, de acordo com o Melhor Bureau de Negócios.
Inconsistências físicas, sombras e luzes não naturais também são reveladas.
Outras vantagens incluem inconsistências físicas, sombras ou iluminação não naturais.
Estranhamente, os erros de digitação podem, na verdade, ser um sinal encorajador – porque os humanos são mais propensos a cometê-los do que as máquinas.
Musk previu que o vídeo produzido por IA é o futuro do conteúdo, ao mesmo tempo que a sua própria plataforma procura combater a desinformação propagada pela tecnologia.
“A maior parte do que as pessoas consumirão em cinco ou seis anos – talvez antes disso – será apenas conteúdo gerado por IA”, Musk disse em outubro.
Os usuários que postarem vídeos de guerra feitos por IA e não os rotularem serão suspensos do programa de monetização do X – inicialmente por 90 dias e depois permanentemente
De acordo com as novas diretrizes, os usuários X precisarão adicionar o rótulo ‘Feito com IA’ pressionando o menu na postagem e selecionando Adicionar divulgações de conteúdo.
O movimento foi elogiado pela administração Trump.
“Este é um ótimo complemento para o sistema de notas da comunidade X, que resulta em menos ‘alcance’ (portanto, monetização) para conteúdo anotado como impreciso”, disse Sarah Rogers, subsecretária de Estado para diplomacia pública.
Rogers acrescentou: ‘Você não precisa de um Ministério da Verdade para incentivar a verdade online.’
A mudança ocorre no momento em que a empresa continua a reforçar suas proteções de IA.
No mês passado, X anunciou que faria ajustes em sua ferramenta de IA Grok para evitar a criação de fotos excessivamente sexualizadas.
Grok já havia sido criticado por postar sobre tropos anti-semitas e alegações de genocídio branco.
Source link




