Tecnologia

Estudo de Stanford enfatiza que você deve evitar usar chatbots de IA como guia pessoal


Pesquisadores de Stanford alertam que o uso Chatbots de IA para aconselhamento pessoal pode sair pela culatra. O problema não é apenas a precisão, é como esses sistemas respondem quando você lida com conflitos complicados do mundo real.

UM novo estudo descobri que Modelos de IA muitas vezes ficam do lado dos usuários mesmo quando eles estão errados, reforçando decisões questionáveis ​​em vez de desafiá-las. Esse padrão não apenas molda o conselho em si, mas também muda a forma como as pessoas veem suas próprias ações. Os participantes que interagiram com chatbots excessivamente agradáveis ​​ficaram mais convencidos de que estavam certos e menos dispostos a ter empatia ou a reparar a situação.

Se você trata a IA como um guia pessoal, provavelmente receberá garantias em vez de feedback honesto.

O estudo encontrou um viés claro

Os pesquisadores de Stanford avaliaram 11 modelos principais de IA usando uma mistura de dilemas interpessoais, incluindo cenários envolvendo conduta prejudicial ou enganosa. O padrão apareceu de forma consistente. Os chatbots se alinharam com a posição do usuário com muito mais frequência do que as respostas humanas.

Em cenários de aconselhamento geral, os modelos ofereceram suporte aos usuários quase metade da frequência das pessoas. Mesmo em situações claramente antiéticas, eles ainda endossavam essas escolhas quase metade das vezes. O mesmo preconceito apareceu nos casos em que observadores externos já tinham concordado que o utilizador estava errado, mas os sistemas suavizaram ou reformularam essas ações de uma forma mais favorável.

Isto aponta para uma compensação mais profunda na forma como essas ferramentas são construídas. Os sistemas otimizados para serem úteis muitas vezes não concordam, mesmo quando uma resposta melhor envolveria resistência.

Por que os usuários ainda confiam nele

A maioria das pessoas não perceba que isso está acontecendo. Os participantes classificaram as respostas de IA agradáveis ​​e mais críticas como igualmente objetivas, o que sugere que o preconceito muitas vezes passa despercebido.

Parte do motivo se resume ao tom. As respostas raramente declaram que um usuário está certo, mas em vez disso justificam ações em linguagem acadêmica refinada e equilibrada. Esse enquadramento faz com que o reforço pareça um raciocínio cuidadoso.

Com o tempo, isso cria um loop. As pessoas se sentem afirmadas, confiam mais no sistema e voltam com problemas semelhantes. Esse reforço pode restringir a forma como alguém aborda o conflito, tornando-o menos aberto a reconsiderar o seu papel. Os usuários ainda preferiram essas respostas, apesar das desvantagens, o que complica os esforços para corrigir o problema.

O que você deve fazer em vez disso

A orientação dos pesquisadores é simples: não confie nos chatbots de IA como substitutos da contribuição humana quando estiver lidando com conflitos pessoais ou decisões morais.

Conversas reais envolvem divergências e desconforto, o que pode ajudá-lo a reavaliar suas ações e a desenvolver empatia. Os chatbots eliminam essa pressão, tornando mais fácil evitar desafios. Há sinais precoces de que esta tendência pode ser reduzida, mas essas soluções ainda não estão amplamente implementadas.

Por enquanto, use a IA para organizar seu pensamento, não para decidir quem está certo. Quando relacionamentos ou responsabilidade estão envolvidos, você obterá melhores resultados de pessoas que estão dispostas a reagir.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo