Tecnologia

Roblox agora usa moderação de IA para encerrar conteúdo prejudicial antes que ele chegue até você


Se você já jogou Robloxvocê sabe o quão selvagem e imprevisível a plataforma pode se tornar. Agora, Roblox está usando essa mesma imprevisibilidade como motivo para revisar a forma como modera o conteúdo.

A plataforma acabou de lançar um sistema de moderação de IA multimodal em tempo real que não examina apenas instâncias individuais, mas verifica cenas inteiras do jogo em tempo real para capturar conteúdo que escapou dos filtros anteriores.

Como funciona a nova moderação de IA do Roblox?

Ao contrário das ferramentas de moderação mais antigas que avaliam um objeto por vez, o novo sistema multimodal avalia uma cena inteira, incluindo avatares, texto e objetos 3D, para determinar se a combinação completa viola os padrões da comunidade Roblox.

Por exemplo, considere alguém usando uma ferramenta de desenho de formato livre para esboçar um símbolo ofensivo — do tipo que não acionaria uma verificação de item único, mas que obviamente é um problema de contexto.

Quando violações repetidas são detectadas em uma única instância do jogo, o sistema desliga apenas esse servidor, e não o jogo inteiro. Desde o lançamento, cerca de 5.000 servidores foram desativados todos os dias.

Roblox está trabalhando para monitorar 100% do tempo de jogo com este sistema. Além dos desligamentos de servidores, a empresa também está desenvolvendo ferramentas para identificar e remover atores mal-intencionados individuais, sem arruinar a experiência de todos os outros.

O que isso significa para os criadores do Roblox?

Os criadores também não ficam no escuro. Um novo gráfico dentro do Painel do Criador existente agora mostra quantos servidores de jogos foram desligados em um determinado dia devido ao mau comportamento do usuário.

Picos nesse número podem sinalizar um problema que vale a pena investigar, dando aos criadores a chance de revisar e ajustar coisas como emotes personalizados ou ferramentas de construção no jogo antes que a situação piore.

Um novo programa de certificação para limpar os jogos online

Roblox também está enfrentando um problema maior da indústria. Juntamente com a Keyword Studios e a Riot Games, está co-desenvolvendo o Programa de Liderança DLC para gerentes e moderadores de comunidades online.

A psicóloga pesquisadora Rachel Kowert, que atua como Diretora de Pesquisa na Games for Change, está liderando o lado acadêmico. O objetivo é criar treinamento padronizado e baseado em evidências para pessoas que gerenciam comunidades de jogos, algo que a indústria nunca teve antes.

Roblox também vem reforçando sua rede de segurança há algum tempo, desde controles parentais para filtros de bate-papo baseados em idadee a atualização mais recente é a medida mais ambiciosa até agora.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo