5 mitos sobre IA e por que devemos superá-los (opinião)

Estamos prontos para um conjunto emocionante de conversas sobre IA e ensino superior. Queremos conversar com o corpo docente sobre o que A ideia de “co-inteligência” de Ethan Mollick meios na prática em sala de aula. Precisamos envolver os empregadores de nossos graduados para redesenhar o currículo. Estamos até prontos para conversas difíceis, como o que acontece quando um professor quer que uma aula use IA, mas alguns alunos têm objeções éticas.
Essas conversas estão acontecendo entre a classe influenciadora de escritores e pensadores de IA, mas não tanto no trabalho diário com o corpo docente. No ano passado, percebemos que há um conjunto de conversas e intervenções que precisamos superar se quisermos chegar ao que há de bom.
A era da inteligência artificial no ensino superior parece demasiado nova para ser invadida por mitos e conselhos ultrapassados, mas aqui estamos. Blogs populares destacam truques arcaicos para detectar escrita de IA, e sites de ensino e aprendizagem recomendam táticas que não funcionam há mais de um ano. Parte disto deve ser perdoado – nunca vimos uma tecnologia evoluir tão rapidamente, por isso a adaptação é contínua e não um evento único.
Como membros do corpo docente que estão profundamente investidos na compreensão do que há de bom e de ruim na IA nas salas de aula modernas, nosso objetivo aqui é discutir alguns dos mitos mais proeminentes e teimosos que persistem nas conversas sobre IA e ensino e aprendizagem.
Eu sei quando vejo
Guias para identificar trabalhos produzidos por IA continuam a existir e ser postado em sites de faculdades e universidades. Publicações técnicas e jornalistas continue a publicar conselhos sobre isso também. Casey Newton de Plataforma e Garfo Duro recentemente disse de Escrita de IA“Eu sempre posso dizer.”
Isto é empiricamente falso. Estudar depois estudar confirma que os humanos são incrivelmente ruins em detectar escrita de IA: é mais verdade que podemos detectar pessoas que são ruins no uso de IA. Considere alguns dos conselhos comuns nesses guias, como que uma abundância de travessões ou marcadores indica provável envolvimento da IA. Você pode muito bem encontrar alunos usando muitos travessões e, durante uma conversa, descobrir que usaram IA. No entanto, isso é apenas um viés de seleção, já que você nunca soube da existência de outros alunos que também o usaram, mas que você não identificou. Detectar o uso não autorizado de IA acaba se tornando um processo baseado em vibrações que necessariamente introduz preconceitos do instrutor em outro aspecto do ensino.
IA não consegue fazer reflexão pessoal
Este foi um componente-chave de um artigo popular em O Atlântico desde o outono em que o autor, o linguista John McWhorter, postulou: “Também encontrei maneiras de fazer perguntas que vão além do que a IA pode responder, como pedir uma opinião pessoal… que se baseie no material discutido em aula”. Esta crença de que pedir reflexão pessoal é uma forma de proteção contra a IA é notavelmente difundidomesmo em centros de sites de ensino e aprendizagem.
Mas isso é apenas uma sugestão básica. Digamos que você atribua uma reflexão pessoal que peça aos alunos que pensem criticamente sobre como eles são moldados pelas desigualdades sociais (raça, gênero, classe) em suas vidas cotidianas. O aluno A pode copiar as instruções da tarefa em um LLM e escrever para o LLM: “Faça esta tarefa para mim”. O aluno B copia as instruções, mas neste caso o aluno adiciona detalhes pessoais sobre si mesmo, como raça e etnia, renda, idade, local de residência e outros. Sugerimos fortemente que todos experimentem isso sozinhos em suas próprias tarefas. Existem até sites que permitem aos usuários “humanizar” seu texto gerado por IA, o que significa que talvez você nem precise ser bom em solicitar isso.
O truque do calendário
As versões 2023 do ChatGPT foram treinadas em dados apenas até 2021. Portanto, um tática popular no início era fazer perguntas sobre eventos atuais aos quais os sistemas não tinham acesso. De alguma forma, isso persistiu como abordagem. É algo que encontramos trabalhando com professores, e até aparece de forma modificada em alguns guias, como este. da Universidade Estadual de Montclair que recomenda conectar as atribuições a “eventos muito recentes”, pois esse é o contexto que “a IA não terá”.
Obviamente, este conselho já não é viável, uma vez que alguns modelos como Grok e Llama estão totalmente integrados em redes sociais em tempo real e outros fornecedores estão em negociações com meios de comunicação para obter resultados informados sobre as últimas notícias.
Cavalo de Tróia
Em 2024, um professor viralizou com a estratégia de incorporar instruções ocultas em uma solicitação de redação usando fonte pequena e branca. A ideia é que o aluno copie e cole involuntariamente todo o guia de tarefas na plataforma de IA, que lerá o prompt oculto. O resultado resultante incorporará algo que o instrutor solicitou, como incorporar referências a um filme ou a um teórico não abordado em aula. É claro que isso também funcionaria com prompts STEM e resultaria em trechos de código errados ou componentes de uma prova desnecessários.
Na melhor das hipóteses, este é um ensino “pegadinha”, onde os instrutores passam de professores a brincalhões. É este o papel que queremos desempenhar? Se o seu objetivo é pegar os alunos em flagrante, você não está partindo de uma boa pedagogia. Esta também é uma abordagem não confiável, com prazo de validade limitado. O cavalo de Tróia é basicamente uma variação de um ataque de injeção imediata, que é um problema de segurança conhecido para LLMs que os engenheiros estão tentando ativamente resolver. O maior risco é que, se um instrutor confiar nisso como tática, ele imediatamente absolverá todos que passarem no “teste”. Mesmo que o truque funcione, você não está identificando todos os alunos que estão usando as ferramentas: você está apenas identificando os alunos que não as utilizam bem.
Claude não está em nossa sala de aula
Algumas universidades recomendar vincular as tarefas estreitamente às discussões em sala de aula. Ao contrário das outras abordagens, esta baseia-se na boa pedagogia. Esse tipo de abordagem integrada à instrução é absolutamente uma prática recomendada – mas não é uma forma eficaz de impedir o uso de grandes modelos de linguagem.
Um aluno pode simplesmente adicionar o contexto da discussão em sala de aula ao prompt e o resultado resultante irá incorporá-lo. No entanto, achamos que há mérito aqui, na medida em que vemos isso como uma melhor prática para ensinar aos alunos como alertar bem.
Tentar fazer com que os alunos não usem essas ferramentas parece ser uma batalha perdida, e nem sequer estamos convencidos de que vale a pena lutar. Nem sequer tocámos na necessidade de trabalhar com estas ferramentas para preparar os alunos para um mercado de trabalho competitivo, onde os empregadores esperam cada vez mais a alfabetização em IA e a utilização de ferramentas. O objetivo deste artigo era simplesmente esclarecer uma série de equívocos e a persistência de conselhos desatualizados.
Reconhecemos que as pessoas estão em lugares diferentes com a IA, dependendo das questões éticas que têm e do quanto usaram as ferramentas. Existem muitas questões não resolvidas sobre sustentabilidade, perda de aprendizagem, criatividade humana e trabalho. Estamos prontos para ter mais dessas conversas. Preferiríamos ter menos casos em que teríamos que dar a notícia a um de nossos colegas de que o “truque bacana” que aprenderam com o TikTok há dois anos não funciona mais.
Source link




