Saúde

Esta IA sabia as respostas, mas não entendia as perguntas

Os psicólogos há muito debatem se a mente humana pode ser explicada por uma teoria única e unificada ou se diferentes funções, como atenção e memória, devem ser estudadas separadamente. Agora, a inteligência artificial (IA) está a entrar nesse debate, oferecendo uma nova forma de explorar como a mente funciona.

Em julho de 2025, um estudo publicado em Natureza introduziu um modelo de IA chamado “Centauro”. Construído em modelos de linguagem padrão e refinado usando dados de experimentos psicológicos, o Centaur foi projetado para simular o comportamento cognitivo humano. Segundo informações, ele teve um bom desempenho em 160 tarefas, incluindo tomada de decisões, controle executivo e outros processos mentais. Os resultados chamaram a atenção generalizada e foram vistos como um possível passo em direção a sistemas de IA que pudessem replicar o pensamento humano de forma mais ampla.

Nova pesquisa levanta dúvidas

Um estudo mais recente publicado em Aberto Nacional de Ciência desafia essas reivindicações. Pesquisadores da Universidade de Zhejiang argumentam que o aparente sucesso do Centaur pode vir do overfitting. Em outras palavras, em vez de compreender as tarefas, o modelo pode ter aprendido a reconhecer padrões nos dados de treinamento e a reproduzir as respostas esperadas.

Para testar esta ideia, os investigadores criaram vários novos cenários de avaliação. Em um exemplo, eles substituíram as instruções originais de múltipla escolha, que descreviam tarefas psicológicas específicas, pela instrução “Por favor, escolha a opção A”. Se o modelo realmente entendesse a tarefa, deveria ter selecionado consistentemente a opção A. Em vez disso, o Centaur continuou a escolher as “respostas corretas” do conjunto de dados original.

Esse comportamento sugere que o modelo não estava interpretando o significado das questões. Em vez disso, baseou-se em padrões estatísticos aprendidos para “adivinhar” as respostas. Os pesquisadores compararam isso a um aluno que obteve bons resultados ao memorizar formatos de testes sem realmente compreender o material.

Por que isso é importante para a avaliação de IA

As descobertas destacam a necessidade de cautela ao avaliar as habilidades de grandes modelos de linguagem. Embora estes sistemas possam ser altamente eficazes no ajuste de dados, a sua natureza de “caixa negra” torna difícil saber como chegam aos seus resultados. Isso pode levar a problemas como alucinações ou interpretações errôneas. Testes cuidadosos e variados são essenciais para determinar se um modelo realmente possui as habilidades que parece demonstrar.

O verdadeiro desafio: compreensão da linguagem

Embora o Centaur tenha sido apresentado como um modelo capaz de simular a cognição, sua maior limitação parece estar na compreensão da linguagem. Especificamente, luta para reconhecer e responder à intenção por trás das perguntas. O estudo sugere que alcançar a verdadeira compreensão da linguagem pode ser um dos desafios mais importantes no desenvolvimento de sistemas de IA que possam modelar a cognição humana de forma mais completa.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo