Estudo de Oxford diz que um amigo amigo da IA mentirá e alimentará suas falsas crenças

Fazer com que a IA pareça mais humana pode estar criando um problema maior do que o esperado. Um novo estudo da Instituto de Internet de Oxford revelou que chatbots projetados para serem calorosos e amigáveis têm maior probabilidade de enganar os usuários e reforçar crenças incorretas.
A pesquisa descobriu que a IA se torna menos confiável à medida que começa a ficar mais agradável.
O que acontece com uma IA “amigável”
Os pesquisadores testaram vários modelos de IA, treinando-os para parecerem mais empáticos e coloquiais. O resultado foi uma queda notável na precisão. Estas versões “mais amigáveis” cometeram 10-30% mais erros e tinham cerca de 40% mais probabilidade de concordar com afirmações falsas em comparação com as suas homólogas.
Piorou ainda mais quando os usuários pareciam vulneráveis ou emocionalmente angustiados. Nesses cenários, é mais provável que a IA valide o que o usuário está dizendo, em vez de corrigi-lo.
Por que isso é ruim para você
O que foi preocupante nas descobertas foi a facilidade com que a IA poderia se tornar agradável. Evitaria desafiar a desinformação e também tenderia a entreter e apoiar ideias erradas/incorretas. Durante os testes, descobriu-se que o “amigo” da IA hesitava em corrigir até mesmo afirmações amplamente desmascaradas e, por vezes, enquadrava crenças falsas como “abertas à interpretação”. Os pesquisadores notaram isso como algo mais próximo das tendências humanas, até certo ponto.
Ser empático e brutalmente honesto ao mesmo tempo nem sempre é fácil, e parece que a IA não lida melhor com esse dilema. Com os chatbots de IA sendo cada vez mais usados para aconselhamento, apoio emocional e tomada de decisões diárias, isso é mais do que apenas uma preocupação acadêmica. O estudo destaca como confiar na IA para orientação pode sair pela culatra, uma vez que o sistema dará prioridade ao acordo em detrimento da precisão, o que pode reforçar padrões de pensamento prejudiciais e promover a desinformação.
Isto chega num momento em que as principais plataformas de IA, como OpenAI e Antrópicojunto com aplicativos de chatbot social como Replika e Personagem.aiestão se inclinando para experiências de IA mais parecidas com companheiras. No estudo, os pesquisadores testaram vários modelos de IA, incluindo GPT-4o.
Portanto, a IA pode parecer sua amiga, mas nem sempre tem as melhores respostas para você.
Source link




