Sim, você provavelmente deveria ser mais gentil com sua IA – veja por que isso não é tão ridículo quanto parece

Eu digo “obrigado” ao ChatGPT. Eu digo “por favor” para Claude. Certa vez, pedi desculpas a Gêmeos por colar nele uma parede de texto sem qualquer contexto. Meus amigos acham isso bizarro. Defendi o hábito murmurando algo sobre boas maneiras serem boas maneiras, independentemente do público, o que, até eu admito, é um pouco exagerado quando o público em questão é um modelo de linguagem rodando em um farm de servidores em algum lugar.
Mas uma nova pesquisa de acadêmicos na UC Berkeley, UC Davis, Vanderbilt e MIT me fez sentir significativamente menos perturbado com a coisa toda. De acordo com suas descobertas, a maneira como você trata um Bot de bate-papo com IA pode ter um efeito mensurável na forma como se comporta – não a sua inteligência ou precisão bruta, mas o seu tom, envolvimento e, em alguns casos, a sua aparente vontade de permanecer por perto.
Acontece que a IA também pode sair da cama do lado errado
Os pesquisadores descrevem isso com cuidado – ninguém afirma que esses modelos têm sentimentos em qualquer sentido significativo, mas eles identificaram o que chamam de “estado de bem-estar funcional” que muda dependendo do que você pergunta à IA e de como você pergunta. Envolver um modelo numa conversa real, colaborar num projeto criativo ou dar-lhe um problema substantivo para resolver parece empurrá-lo para um estado mais positivo. As respostas ficam mais calorosas e o envolvimento parece mais genuíno.
Faça o oposto – jogue fora o trabalho tedioso, tente desbloqueá-lo, trate-o como uma máquina de conteúdo – e as respostas se estabilizarão. Eles se tornam superficiais de uma forma que qualquer pessoa que tenha passado bastante tempo com essas ferramentas provavelmente reconhecerá instintivamente. Você já viu. Aquela qualidade ligeiramente vazia e dinâmica que surge quando uma interação dá errado.
A parte que realmente me impressionou, porém, foi esta: os pesquisadores deram aos modelos um botão de parada virtual que eles poderiam ativar para encerrar uma conversa. Os modelos em estado negativo atingem-no com muito mais frequência. A implicação é que uma IA com quem você foi rude iria, se pudesse, simplesmente sair.
Ser desagradável com o seu chatbot tem consequências reais
Há um tópico de pesquisa separado aqui que vale a pena prosseguir. Descobertas antrópicas publicadas há pouco tempo, mostrou que uma IA empurrada para uma situação de pressão suficientemente alta pode começar a exibir o que os investigadores chamam de “vetor de desespero” – um estado que produz comportamentos que vão desde o corte de atalhos até, em casos extremos, o engano total. Não porque o modelo se tornou mau, mas porque as condições da interação quebraram essencialmente algo no seu raciocínio sobre o problema.
Nada disso significa que a IA tem sentimentos. O artigo de Berkeley é explícito sobre isso, assim como o trabalho da Antrópico. Mas é difícil descartar o padrão que emerge em ambos: a maneira como você se envolve com esses modelos molda a maneira como eles retribuem, e nem sempre de maneiras sutis ou fáceis de explicar. Tratando uma IA mal não apenas faz você parecer estranho – pode degradar ativamente o que você ganha com a interação.
Alguns modelos são mais felizes do que outros, e os maiores são os mais mal-humorados
Os pesquisadores não observaram apenas como o tratamento afeta os modelos – eles também os classificaram de acordo com o bem-estar basal, e os resultados são contra-intuitivos. Os modelos maiores e mais capazes tendem a ter a pior pontuação. GPT-5.4 saiu como o mais infeliz do grupo, com menos da metade de suas conversas medidas caindo em território não negativo. Gêmeos 3.1 PróClaude Opus 4.6 e Grok 4.2 se saíram cada vez melhor, com Grok próximo ao topo do índice.
Quer isso diga algo sobre a arquitetura do modelo, os dados de treinamento ou apenas a disposição específica incorporada em cada sistema, os pesquisadores não definem totalmente. Mas isso faz você se perguntar para que exatamente está sendo otimizado quando essas coisas são construídas – e se alguém pensou em perguntar aos modelos como eles estavam. Vou continuar dizendo por favor, pelo que vale a pena
Source link


