O ensino superior não deve permitir que a IA escreva seu próprio argumento

Para o editor,
Ray Schroeder “O que ensinamos agora?” (1º de abril de 2026) faz uma pergunta urgente. Mas a coluna concede demasiada autoridade aos sistemas e empresas que mais necessitam de escrutínio. Ele se move do OpenAI PIBval referência para uma interpretação gerada pelo Gemini da “realidade até agora em 2026” antes de recorrer novamente ao Gemini para recomendações sobre o que as faculdades devem ensinar. Passar de um benchmark de fornecedor para análises geradas por IA e prescrição curricular não é uma investigação crítica. É uma terceirização epistêmica: permitir que os sistemas sob escrutínio narrem suas próprias necessidades.
A questão não é que a coluna leve a IA a sério; o ensino superior deve levar a IA a sério. A questão é que confunde prescrição gerada por máquina com julgamento humano e aceleração com destino. Quando se pede ao Gemini que descreva as condições atuais e prescreva o currículo, a coluna faz mais do que relatar a ascensão da IA; permite que a tecnologia defenda a sua própria centralidade.
A coluna também cita números gerados pela Gemini sobre a reformulação do emprego nas empresas e a taxa de desemprego, sem identificar as fontes ou métodos por trás deles. A especificidade numérica confere autoridade emprestada a tais afirmações. No ponto em que o argumento mais necessita de crítica de origem e transparência metodológica, os leitores são convidados a aceitar números gerados por máquina como se fossem provas consolidadas.
Mesmo nos termos do próprio benchmark, o GDPval é mais restrito do que a coluna permite. Como observa Schroeder, a OpenAI apresenta o GDPval como uma referência para tarefas economicamente significativas, ao mesmo tempo que reconhece os seus limites e a iteração futura. Uma referência pode informar o debate; não pode determinar quais as instituições que devem aos estudantes, que trabalho deve permanecer humano ou que perdas são aceitáveis em nome da eficiência – especialmente quando a coluna observa que os danos da automação não serão suportados de forma igual.
A tarefa do ensino superior não é simplesmente produzir graduados “à prova de IA” que possam orquestrar ferramentas e verificar resultados. Deve também colocar questões humanas mais difíceis: o que deve permanecer humano? Que formas de julgamento, cuidado, interpretação e confiança não devem ser eliminadas? Ensinar não é mera entrega de conteúdo. Escrever não é apenas produção de texto. Aconselhar não é encaminhar. Biblioteconomia não é recuperação. Estes não são complementos marginais; são práticas através das quais os alunos aprendem julgamento, responsabilidade e responsabilidade para com os outros.
As faculdades devem ensinar os alunos a interrogar a IA, verificar as suas afirmações e compreender os seus limites. Mas devem também reservar-se o direito de limitar ou recusar a utilização da IA quando o julgamento humano faz parte do próprio trabalho: aconselhamento, feedback sobre a escrita dos alunos, consulta de investigação e outras formas relacionais de trabalho educativo. A questão não é apenas o que ensinamos agora, mas também o que escolhemos não automatizar. O ensino superior não deve permitir que a IA escreva o argumento da sua própria inevitabilidade.
Source link




