Os estudantes universitários estão mais polarizados do que nunca. A IA pode ajudar?

Várias plataformas alimentadas por IA destinadas a promover o diálogo civil surgiram nos últimos anos.
Ilustração fotográfica de Justin Morrison/Inside Higher Ed | benoitb, ibenk.88, Kateryna Onyshchuk e Lacheev/iStock/Getty Images | triloks/E+/Getty Images
Nos últimos anos, as instituições de ensino superior adotaram ferramentas emergentes de inteligência artificial num esforço para melhorar quase todos os aspectos da vida no campus – não apenas o ensino e a aprendizagem, mas também admissões, redes de ex-alunos, arrecadação de fundos e aconselhando. Agora, alguns estão até experimentando a capacidade da IA de promover uma das tendências mais quentes nos campi universitários: promover o diálogo construtivo entre os estudantes, que são mais dividido sobre a política agora do que em qualquer momento do passado 40 anos.
Isto é em grande parte um reflexo da polarização política mais ampla que tem atormentado a sociedade americana ao longo da última década, uma dinâmica que se intensificou nos campi universitários durante os protestos pró-palestinos que eclodiram durante a guerra Israel-Hamas. De fato, a proporção de estudantes que disseram que se sentiam desconfortáveis em compartilhar suas opiniões políticas no campus aumentou de 13% para 33% entre 2015 e 2024.
Para ajudar a colmatar essas divisões, as faculdades estão cada vez mais a fazer parcerias com organizações destinadas a promover o diálogo civil, incluindo Braver Angels, BridgeUSA, o Institute for Citizens and Scholars e o Constructive Dialogue Institute. E ultimamente, a IA está se tornando parte da conversa.
“A maioria dos programas de diálogo existentes não são escaláveis”, disse Mylien Duong, diretor de impacto do CDI, lançado em 2017. “O poder da IA é que ela pode fornecer treinamento e feedback em tempo real, sem precisar depender do poder humano”.
Uma série de plataformas de diálogo construtivo alimentadas por IA surgiram nos últimos anos; O CDI está testando um componente habilitado para IA para seu Programa de aprendizagem de perspectivasque usa uma combinação de conversação entre pares e módulos de aprendizagem on-line para equipar os alunos com as habilidades necessárias para ter conversas difíceis.
O novo chatbot de IA do programa busca levar adiante essa missão, treinando os alunos para ouvirem ativamente uma pessoa com uma visão oposta, expressarem seus pontos de vista sem ficarem na defensiva ou chateados e encontrarem pontos em comum em meio a divergências fundamentais. Um chatbot apresenta aos alunos um cenário hipotético – desde uma disputa entre colegas de quarto até um debate acalorado sobre o aborto, a imigração ou a guerra no Médio Oriente – e dá-lhes feedback sobre as suas respostas.
“Ter conversas difíceis com pessoas reais em tempo real pode ser difícil”, disse Lindsay Hoffman, professora associada de comunicação política na Universidade de Delaware, que está testando a versão beta da ferramenta de IA do CDI com seus alunos neste semestre. “O componente IA cria um espaço seguro onde os alunos podem expressar ideias que talvez não se sintam confortáveis em expressar a outro ser humano.”
Até agora, seus alunos dizem que tem sido muito útil.
“Você pode praticar sem medo de errar”, escreveu um aluno em uma pesquisa anônima de feedback. “O treinador prático fez com que as aulas parecessem interativas e realistas”, escreveu outro. “Ele forneceu instruções e cenários claros que me ajudaram a realmente praticar habilidades como tomar perspectiva, fazer loops e fazer perguntas construtivas, em vez de apenas ler sobre elas. Também me ajudou a desacelerar e pensar em como responder de uma forma mais calma e respeitosa.”
No entanto, a IA tem limites como ferramenta de diálogo construtivo, de acordo com um white paper CDI publicado no final do mês passado. Em suma, quanto mais liberdade uma ferramenta de IA generativa tiver para moldar as conversas, mais arriscada ela se tornará.
O artigo identificou três funções que as ferramentas emergentes de diálogo construtivo baseadas na IA assumiram: Além do treinador, que ajuda os alunos a desenvolver competências de diálogo individuais, a IA pode atuar como mediadora, procurando facilitar conversas entre diferenças, ou como parceiro de conversa que envolve os alunos em desacordo.
“Em todas essas funções, vemos mais benefícios e menos riscos quando o papel da IA no diálogo é mais restrito e focado pedagogicamente”, disse Ryan Carlson, cientista pesquisador do CDI e autor do artigo. Isso significa programar chatbots para fornecer instruções específicas e feedback significativo que estimule os alunos a desenvolverem suas habilidades de diálogo – e não apenas lhes diga o que dizer.
“Os coaches são o caminho mais promissor para iniciar este processo de instituições que começam a se envolver de forma mais intencional com a IA no campus”, acrescentou Carlson. “A grande maioria dos estudantes já utiliza a IA sem qualquer proteção, e as evidências sugerem que é essencial começarmos a investir mais em ferramentas baseadas em evidências, criadas por educadores, que podem ajudar a garantir que os alunos experimentem o atrito necessário para aprenderem habilidades de diálogo.”
Mediador de IA arriscado, adversário
Embora a função de coaching represente riscos mínimos – que estão principalmente ligados a problemas de design e interface fáceis de remediar – a implantação da IA como mediador ou parceiro de discussão apresenta riscos existenciais mais profundos, de acordo com o documento.
Quando encarregada de mediar uma conversa ao vivo entre dois alunos, “a IA torna-se responsável por determinar o que conta como um tópico apropriado para o diálogo”, disse Carlson. Por exemplo, “corre-se o risco de fazer falsas equivalências. A IA poderia potencialmente tratar como equivalente uma afirmação bem evidenciada e baseada em muito pouco apoio empírico, enquanto um mediador humano treinado seria capaz de detectar esse problema imediatamente”.
Também não está claro até que ponto um mediador de IA pode lidar bem com conversas acaloradas ou reconhecer quando a supervisão humana é necessária, acrescentou. Mas a mais arriscada de todas essas funções é usar a IA como parceira de debate; Carlson disse que o bot muitas vezes se esforça para oferecer “uma representação precisa de alguém que possui [an opposing] crença.” Isso ocorre em parte porque, como outras pesquisas mostrama IA é muito mais persuasiva do que o ser humano médio, mesmo quando se baseia em informações falsas ou enganosas para elaborar os seus argumentos.
“Se a IA for capaz de mudar as nossas mentes de uma forma mais poderosa do que os humanos e depois for implementada em grande escala, estaremos a abrir uma lata de vermes”, disse Duong do CDI. “Quem pode dizer o que está dentro dos limites e o que está fora dos limites, o que é e o que não é uma teoria da conspiração, ou o que é baseado em evidências e o que não é? A IA tem que apontar em uma direção específica, e por trás dessa direção específica está um conjunto de designers humanos. Ela concentra muito poder no design da IA.”
Source link




