Tecnologia

Estudo de Oxford diz que um amigo amigo da IA ​​​​mentirá e alimentará suas falsas crenças


Fazer com que a IA pareça mais humana pode estar criando um problema maior do que o esperado. Um novo estudo da Instituto de Internet de Oxford revelou que chatbots projetados para serem calorosos e amigáveis ​​têm maior probabilidade de enganar os usuários e reforçar crenças incorretas.

A pesquisa descobriu que a IA se torna menos confiável à medida que começa a ficar mais agradável.

O que acontece com uma IA “amigável”

Os pesquisadores testaram vários modelos de IA, treinando-os para parecerem mais empáticos e coloquiais. O resultado foi uma queda notável na precisão. Estas versões “mais amigáveis” cometeram 10-30% mais erros e tinham cerca de 40% mais probabilidade de concordar com afirmações falsas em comparação com as suas homólogas.

Piorou ainda mais quando os usuários pareciam vulneráveis ​​ou emocionalmente angustiados. Nesses cenários, é mais provável que a IA valide o que o usuário está dizendo, em vez de corrigi-lo.

Por que isso é ruim para você

O que foi preocupante nas descobertas foi a facilidade com que a IA poderia se tornar agradável. Evitaria desafiar a desinformação e também tenderia a entreter e apoiar ideias erradas/incorretas. Durante os testes, descobriu-se que o “amigo” da IA ​​hesitava em corrigir até mesmo afirmações amplamente desmascaradas e, por vezes, enquadrava crenças falsas como “abertas à interpretação”. Os pesquisadores notaram isso como algo mais próximo das tendências humanas, até certo ponto.

Ser empático e brutalmente honesto ao mesmo tempo nem sempre é fácil, e parece que a IA não lida melhor com esse dilema. Com os chatbots de IA sendo cada vez mais usados ​​para aconselhamento, apoio emocional e tomada de decisões diárias, isso é mais do que apenas uma preocupação acadêmica. O estudo destaca como confiar na IA para orientação pode sair pela culatra, uma vez que o sistema dará prioridade ao acordo em detrimento da precisão, o que pode reforçar padrões de pensamento prejudiciais e promover a desinformação.

Isto chega num momento em que as principais plataformas de IA, como OpenAI e Antrópicojunto com aplicativos de chatbot social como Replika e Personagem.aiestão se inclinando para experiências de IA mais parecidas com companheiras. No estudo, os pesquisadores testaram vários modelos de IA, incluindo GPT-4o.

Portanto, a IA pode parecer sua amiga, mas nem sempre tem as melhores respostas para você.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo