Educação

A melhor defesa contra trapaças de IA (opinião)

Se você trabalha com desenvolvimento docente, provavelmente já ouviu a mesma preocupação no ano passado: Todos os meus alunos estão trapaceando usando IA. Na Geogia State University, nosso centro de ensino e aprendizagem no campus recebe mais solicitações de workshops sobre como prevenir a desonestidade digital do que qualquer outro tópico. Ao longo do semestre do outono de 2025, tive em média um workshop, apresentação ou reunião sobre IA e integridade acadêmica a cada quatro dias úteis.

Os professores universitários estão ansiosos, e isso fica evidente em suas reações. Todos nós já lemos histórias sobre professores que voltaram aos livros azuis ou optaram pela reforma antecipada para evitar a inundação percebida de texto gerado por máquina. À medida que temos lutado para promover a honestidade académica quando a IA torna a desonestidade tão fácil, o ensino superior recuou em grande parte para duas posturas defensivas: vigilância ou súplica.

A estratégia de vigilância depende da detecção, uma corrida armamentista que já perdemos. As ferramentas de detecção de IA são tendenciosas, facilmente contornáveis ​​e propensas a falsos positivos. Para testar isso, coloquei o primeiro capítulo da minha dissertação (escrita em 2006) em um popular detector de IA. Ele sinalizou meu trabalho como 39% gerado por IA. Não podemos policiar a nossa saída quando o nosso radar está quebrado.

A alternativa é o que chamo de estratégia de súplica, essencialmente tentando convencer os alunos a serem usuários responsáveis ​​de IA. Vejo universidades criando programas de estudos e módulos on-line sobre alfabetização em IA, na esperança de que, se explicarmos a ética com clareza suficiente, os alunos cumpram. Mas isso perde completamente o foco. Os estudantes geralmente não colam porque lhes falta fibra moral; eles trapaceiam porque navegam em um sistema de incentivos que prioriza a eficiência em detrimento do aprendizado.

Acredito que muitas vezes construímos cursos que punem exatamente o que o aprendizado exige: cometer erros. Quando avaliamos curvas de alto risco, oferecemos pouco feedback e exigimos perfeição na primeira tentativa, estamos sinalizando que o produto é mais importante do que o processo. Ao remover o espaço para experimentação e feedback seguros, tornamos a luta para aprender um problema. Nesse contexto, os estudantes recorrem à IA não para evitar a aprendizagem, mas para evitar o risco de fracasso num sistema que não lhes oferece nenhuma rede de segurança.

No outono passado, almocei com uma colega que me disse que estava abandonando totalmente o ensino online. Ela passou a adorar ensinar on-line durante a pandemia, mas sentiu que o uso generalizado da IA ​​impossibilitou que ela se conectasse com os alunos e criasse experiências autênticas. Ela ficou especialmente exasperada com o fato de os alunos estarem usando IA para escrever tarefas de pós-discussão que pediam exemplos pessoais. “Peço que compartilhem um exemplo de suas próprias vidas, e eles ainda me dão algo que a IA escreveu”, disse ela, claramente frustrada.

Perguntei sobre a estrutura de atribuição. Era o formato padrão “postar uma resposta a esta pergunta e depois comentar as postagens de dois colegas”. Isso não é uma discussão; está falando digitalmente em uma sala vazia. Nesta situação, não creio que os alunos estejam a colar porque são antiéticos ou porque não se importam com a sua aprendizagem. Eles estão trapaceando porque estão entediados. Eles estão optando por não participar de uma experiência que carece de feedback significativo, colaboração genuína ou objetivos de aprendizagem claros.

Concluí que a questão de como conter a desonestidade possibilitada pela IA nas nossas aulas tem menos a ver com a IA ou a honestidade e mais a ver com as nossas aulas. A facilidade com que os alunos conseguem trapacear usando a IA expôs uma verdade incômoda: precisamos fazer um trabalho melhor no ensino. Não precisamos testar todas as tarefas à prova de IA ou abandonar totalmente o ensino de grandes aulas on-line. Precisamos mudar a forma como projetamos e ministramos nossas aulas para que o difícil trabalho de aprender, e não de trapacear, seja a opção mais atraente. Aqui estão três maneiras pelas quais imagino que podemos fazer isso:

  1. Faça das discussões discussões reais. Vamos aposentar a fórmula “postar uma vez, responder duas”. Tornou-se o trabalho árduo da era digital. Em vez disso, utilize fóruns online para uma verdadeira interação: revisão por pares, debate de exemplos aplicados ou resolução de problemas de forma colaborativa. Se uma atividade on-line não exige uma interação humana genuína, provavelmente não precisa acontecer em um fórum de discussão.
  1. Use pedagogias que motivem a honestidade. Em um artigo de opinião recente em O jornal New York Timesa psicóloga Angela Duckworth argumentou que a força de vontade é uma narrativa falsa. As pessoas que conseguem comer de forma saudável ou reduzir o uso das redes sociais não o fazem por pura determinação; eles fazem isso estruturando seu ambiente de modo que a escolha certa seja a escolha fácil. Podemos adotar isso em nosso ensino. Por projetos de andaimes, integrando feedback baseado em processo e usando classificação baseada em domínio quando possível, tornamos o trabalho mais gratificante e mais fácil do que tentar criar um aviso para fingir.
  2. Ensine pequeno, mesmo quando a turma for grande. A conexão humana combate a trapaça e a pressão social positiva é um forte motivador para fazer a coisa certa. Isso é fácil em um seminário pequeno, mas e em uma aula teórica grande? A chave é encontrar maneiras de fazer com que os alunos se sintam vistos e ouvidos. Na Duke University, o professor Mohamed Noor virou suas grandes palestrasdividindo a turma em pequenos grupos para trabalhar nos problemas enquanto ele circulava. No meu próprio campus na Georgia State University, cinco dos meus colegas que ministram um curso com grande número de matrículas criaram equipes de projeto verticalmente integradas. Essas pequenas equipes oferecem aos alunos uma maneira de aplicar o conhecimento do curso para resolver problemas de seu interesse, ao mesmo tempo em que desenvolvem relacionamentos significativos com seus colegas e instrutores. Quando os alunos sentem que suas contribuições são importantes, é menos provável que peçam a um chatbot que pense por eles.

Quando debatemos se devemos adotar ferramentas de IA ou como punir a má conduta relacionada com a IA, penso que estamos a contornar a verdadeira questão. Devemos aproveitar esta oportunidade para analisar criticamente a forma como ensinamos. Mudar a forma como nos acostumamos a apresentar conteúdos ou avaliar a aprendizagem pode parecer assustador, por isso não tente fazer isso sozinho. Peça a um colega de confiança para observar seu ensino e oferecer feedback honesto sobre onde suas atividades ou tarefas não apoiam seus objetivos de aprendizagem. Se o seu campus possui um centro de ensino e aprendizagem, agende um horário para se encontrar com um consultor. Falando como diretor do centro, posso prometer que, se você nos trouxer uma tarefa em que observe muito uso indevido da IA, teremos sugestões sobre como melhorá-la.

Muitos professores veem a IA como uma ameaça, tanto para a aprendizagem dos alunos como para a integridade académica. Eles temem que a sala de aula esteja se tornando um campo de batalha sobre a ética da IA, em vez de um espaço para descobertas. Mas a resposta não é uma melhor vigilância. Em vez disso, precisamos de nos concentrar na criação de experiências de aprendizagem que inspirem os alunos a querer fazer o seu próprio trabalho. A melhor defesa contra um chatbot de IA não é um detector ou uma declaração de plano de estudos; é uma aula que vale a pena assistir.

Kim Manturuk é diretora executiva do Centro de Excelência em Ensino, Aprendizagem e Educação Online da Georgia State University.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo