Seu cérebro pode detectar vozes de IA mesmo quando você não consegue

Você provavelmente não consegue distinguir uma voz humana real de uma AI clonee você não está sozinho nessa luta. Mas aqui está a parte surpreendente. De qualquer maneira, seu cérebro já começou a descobrir a diferença.
Pesquisadores da Universidade de Tianjin e da Universidade Chinesa de Hong Kong testaram 30 ouvintes quanto à sua capacidade de detectar Fala gerada por IAe os resultados foram humilhantes.
Os participantes falharam consistentemente em distinguir vozes reais de vozes sintéticas, mesmo depois de uma breve sessão de treinamento destinada a ajudá-los a melhorar. No entanto, quando os cientistas examinaram as gravações neurais dos equipamentos de eletroencefalografia (EEG), descobriram algo mais acontecendo abaixo da superfície. O sistema auditivo estava fazendo sua lição de casa silenciosamente.
O cérebro ouve o que você sente falta
O estudo, publicado na eNeuro, utilizou frases ditas por pessoas reais ao lado de dois tipos de Vozes de IA. Um conjunto era uma fala sintética básica, enquanto o outro era ajustado para soar mais humano.
Os ouvintes pressionaram botões para adivinhar se cada voz era verdadeiro ou falsoe eles entenderam errado. Bastante. Mas os limites do EEG que rastreiam a atividade neural contaram uma história mais interessante.
Após apenas 12 minutos de treinamento, essas respostas neurais começaram a se separar. O cérebro começou a marcar a fala sintética de forma diferente em três momentos distintos, cerca de 55 milissegundos, 210 milissegundos e 455 milissegundos depois de ouvir uma voz. Esses são estágios iniciais de processamento, muito antes do pensamento consciente entrar em cena.
Por que seus ouvidos estão à frente do seu cérebro
Você está lidando com uma lacuna entre percepção e decisão. Seu sistema auditivo registra impressões digitais sônicas sutis em vozes de IA, mas ainda não conectou esses sinais ao botão “isso é falso” em sua mente.
Os pesquisadores encontraram diferenças físicas reais nas vozes que explicam essa desconexão. A análise acústica mostrou que a fala real e a fala por IA variam na faixa de modulação de 5,4 a 11,7 Hz, uma faixa ligada à forma como nossos cérebros rastreiam detalhes rápidos da fala, como fonemas e início de sílabas. Vozes de IA, mesmo aquelas que parecem incrivelmente naturais, aparentemente não acertam perfeitamente essas micro variações. Ainda.
O que isso significa para golpes deepfake
Esta pesquisa realmente traz boas notícias. Isso significa que os humanos não estão indefesos contra a fraude de clonagem de voz e que o hardware biológico funciona perfeitamente. Precisamos simplesmente aprender como usá-lo.
Ferramentas futuras poderiam ensinar as pessoas a ouvir os sinais específicos que seus cérebros já detectam. Em vez de conselhos genéricos como “tenha cuidado”, poderíamos obter programas de treinamento direcionados que ajudem a conectar a percepção neural à tomada de decisões conscientes. Os dados existem, as dicas existem e agora trata-se de conectar esses pontos.
Por enquanto, a conclusão é estranhamente reconfortante. Seu cérebro está trabalhando mais do que você imagina e já está se adaptando às vozes da IA, mesmo que sua mente consciente ainda não tenha se atualizado.
Source link



