O uso de IA pelos alunos é um problema do lado da demanda

Einstein é um bot de IA descrito desta forma: “Einstein é uma IA com um computador. Ele faz login no Canvas todos os dias, assiste a palestras, lê ensaios, escreve artigos, participa de discussões e envia sua lição de casa – automaticamente.”
Sim, o produto afirma ser capaz de concluir qualquer trabalho em um curso do Canvas por conta própria. Pode haver exceções – como enviar um vídeo seu – mas superar um obstáculo como esse é bastante solucionável.
O que isto significa? Acho que significa menos e mais do que algumas pessoas podem estar pensando.
Estou indo para uma palestra, o que me deixa com pouco tempo para desenvolver um texto completo e profundamente reflexivo, mas deixe-me lançar uma série de pensamentos para talvez contextualizar o que acho que está acontecendo aqui.
- Agentes de IA que podem entrar em um LMS e concluir tarefas não são novidade. Marc Watkins e eu conversamos sobre eles em uma sessão de perguntas e respostas em novembro passado, referenciando o trabalho de Anna Mills ainda antes disso.
- Não sabemos totalmente o que é isso. Companion.AI, que parece ser a entidade de hospedagem do Einstein, é o aparente projeto de Advait Paliwal, formado em 2024 pela Michigan State.
- Seja o que for, não parece ser um grande projeto apoiado por capital de risco. É claro que, dado o estado das ferramentas de codificação automatizadas e a integração relativamente fácil dos LLMs em um programa, é facilmente crível que uma única pessoa ou um pequeno grupo possa criar algo assim que pareça e atue de maneira plausível.
- Não tentei porque não tenho acesso a um shell de curso seguro do Canvas, mas alguém deveria. Deveríamos saber quão capazes são esses agentes.
- Sim, escrever sobre isso ou postar obsessivamente sobre isso no BlueSky (como eu e outros em meu círculo temos feito) é fazer algum trabalho de marketing para o produto, mas essas coisas – especialmente se funcionarem – acabarão se espalhando de qualquer maneira.
- Não há como vencer a corrida armamentista de detecção contra a tecnologia de automação de IA. Não só a detecção falhará, mas investir energia significativa na detecção é uma má utilização de tempo e recursos.
- A avaliação analógica é apenas uma defesa parcial contra estes agentes, e optar por recorrer exclusivamente a estes métodos corre o risco de restringir o tipo de aprendizagem que os alunos experimentam.
- As raízes profundas da existência de IA agente como Einstein são o modelo transacional de educação que reduz a escola ao credenciamento. Einstein promete fazer “o trabalho pesado para que você não precise fazer isso”. O facto de os alunos verem uma parte significativa do que acontece na escola como trabalho árduo é o problema que precisa de ser resolvido.
- É óbvio para aqueles que têm mais experiência que não aprender nada enquanto obtêm uma credencial causará problemas no longo prazo, e com certeza muitos alunos conseguem isso, mas muitos não.
Por esta razão, considero que deveríamos olhar para os desafios actuais como um problema do “lado da procura”. Agora é trivial para os alunos terceirizarem seus trabalhos escolares para um modelo ou agente de IA. A principal inovação do Einstein – se funcionar – é eliminar a necessidade de recortar e colar os resultados do LLM. A única maneira de fazer com que os alunos aprendam é tornar o aprendizado uma proposta mais significativa e atraente do que terceirizar a obtenção de uma credencial para um bot.
Como escrevi anteriormente, existem abordagens que permitem um progresso constante na abordagem dos desafios da existência desta tecnologia de forma consistente com os contextos locais e individuais. Não há nada na IA agente fazendo cursos que mude isso.
Sabemos como é a aprendizagem – praticamente o oposto de Einstein – mas, como sistema, não temos estado tão focados na aprendizagem como poderíamos. Cada uma destas ocorrências deve ser vista como uma ocasião para considerar como é realmente a aprendizagem e como aquilo que pedimos aos alunos que façam nas aulas apoia essa aprendizagem.
E, para repetir, é possível que um recém-formado com experiência em desenvolvimento de software tenha desenvolvido algo que funcione da maneira que o produto afirma, mas até o momento isso ainda não foi comprovado. Muitos aplicativos generativos de IA que aparecem em cena e chamam muita atenção são mais novidade do que substantivos. Precisamos saber se isso é substantivo.
Mesmo que isso não funcione, algo parecido provavelmente funcionará algum dia, então vamos em frente e nos prepararmos para essa eventualidade, diminuindo a importância e a relevância dessa tecnologia.
Source link




