Educação

O que saber sobre IA e saúde mental no campus (opinião)

Reúno-me regularmente com um grupo de estudantes de todo o estado, representando todos os cinco campi do sistema da Universidade do Tennessee. Gosto de usar essas conversas para verificar o pulso e entender o que eles estão pensando e o que estão vivenciando no campus em tempo real.

Recentemente, falamos sobre saúde mental e IA. Muitos estudantes partilharam preocupações gerais sobre a IA, como questões éticas e receios de impacto ambiental, mas alguns comentários destacaram-se de uma forma que realmente me surpreendeu.

Um aluno me disse que o ChatGPT era “melhor” do que qualquer terapeuta que eles já haviam consultado: mais solidário, mais validador e mais reconfortante. Vários estudantes descreveram amigos que mantinham o que chamavam de “relacionamentos românticos” com IA, algo que eu anteriormente presumia ser apenas motivo para manchetes sensacionais. Eles também estimaram que 30 a 40 por cento dos seus pares usam IA para companheirismo – às vezes como única fonte de companheirismo.

Tomados em conjunto e emparelhados com relatórios sobre IA e suicídio, fiquei cada vez mais preocupado. Inquéritos recentes mostram que a utilização da IA ​​para apoio à saúde mental não é rara e, de facto, está a crescer rapidamente. Por exemplo, uma pesquisa descobriram que mais de 13 por cento dos adolescentes e jovens adultos com idades compreendidas entre os 12 e os 21 anos já utilizaram IA generativa para aconselhamento sobre saúde mental, com taxas superiores a 22 por cento naqueles com idades compreendidas entre os 18 e os 21 anos. A maioria dos utilizadores também relatou procurar aconselhamento regularmente (mensalmente ou mais) e, na sua esmagadora maioria, considerar o aconselhamento algo ou muito útil (92,7 por cento).

Ao mesmo tempo, pesquisar da Common Sense Media pinta um quadro preocupante: os principais chatbots rotineiramente ignoram sinais de alerta de problemas de saúde mental e promovem a confiança equivocada, inclusive por meio do uso de um tom empático. Eles priorizam o envolvimento em vez da segurança, e descobriu-se que as proteções de segurança falham de forma mais dramática nos tipos de conversas prolongadas que adolescentes e jovens adultos realmente têm.

Para mim, esta conversa parece estranhamente familiar e ecoa o que testemunhamos com a evolução das redes sociais e da saúde mental. No início, abraçamos com entusiasmo a nova tecnologia. Só mais tarde, quando os danos ficaram mais claros, tentamos construir guarda-corpos, e nem sempre com sucesso, pois o veredictos recentes do júri contra o sublinhado Meta. Precisamos abordar a IA com mais visão.

Nina Vasan, professora assistente clínica de psiquiatria na Universidade de Stanford e fundadora e diretora do Brainstorm: Laboratório de Stanford para Inovação em Saúde Mentalque se concentra no estudo de como a tecnologia molda a saúde mental e como projetá-la de forma mais responsável, me disse que o ensino superior não pode simplesmente ignorar a IA e fingir que os alunos não a estão usando. “Esse navio partiu”, disse ela. “A questão é se os ajudamos a fazer isso com sabedoria. O silêncio das instituições não impede o comportamento; apenas remove as barreiras de proteção. Quanto mais rápido uma instituição descobrir como usar melhor a IA, melhor para os alunos e professores.”

Aqui estão algumas coisas a serem consideradas sobre como as faculdades e universidades podem apoiar melhor nossos alunos e funcionários à medida que navegamos neste cenário em evolução da saúde mental e da IA.

  • Entenda que não é apenas um problema dos alunos; é um campus inteiro. Gostamos de acreditar que apenas nossos alunos usam IA, mas o uso da IA ​​também é difundido entre professores e funcionários. Ao contrário da terapia, ela está sempre disponível (e muitas vezes gratuita!), e o uso crescente da IA ​​destaca lacunas nos nossos recursos no campus e no conhecimento de como encontrá-los e usá-los. Como disse Vasan: “Aqui está a verdade incômoda: os estudantes muitas vezes recorrem à IA precisamente porque os recursos do campus parecem inacessíveis, seja devido a listas de espera ou ao estigma. Se ignorarmos a IA, estaremos ignorando por que os estudantes estão procurando alternativas em primeiro lugar”.
  • Saiba o que a IA pode ou não fazer pela saúde mental e qual deve ser o seu papel. Tal como acontece com as aplicações de telessaúde ou de saúde mental, os membros da comunidade do campus precisam de compreender o que a IA pode ou não fazer pela saúde mental e falar abertamente sobre isso. Vasan disse que a IA é boa para necessidades de saúde mental de menor gravidade, como processar emoções ou praticar conversas difíceis, e para psicoeducação geral, como pesquisar o que é um ataque de pânico, mas não para sintomas de maior risco. Ela disse: “Eu digo aos alunos para pensarem na IA como um colega de estudo, não como um terapeuta. Ela pode ajudá-lo a debater, organizar seus pensamentos, redigir um e-mail ou ensaiar uma conversa difícil. Mas quando você está em crise, você precisa de um ser humano que possa realmente avaliar o risco, prescrever medicamentos ou ligar para seu contato de emergência.”

John Torous, diretor do psiquiatria digital divisão do Beth Israel Deaconess Medical Center, equiparou a IA a “livros de autoajuda muito poderosos”. Assim como esses livros, disse ele, a IA “pode fornecer conteúdo importante e útil, mas, assim como um livro de autoajuda, terá mais impacto se você aplicar e praticar essas habilidades/lições no mundo real”. Ele acrescentou que conhecer os limites da autoajuda também é importante, pois você não confiaria em um livro em caso de emergência.

  • Pergunte aos seus alunos e colegas sobre seu uso. Precisamos nos sentir confortáveis ​​em perguntar e falar sobre IA e saúde mental. Como disse Vasan: “Você não precisa se tornar um especialista em IA, mas precisa ser curioso o suficiente para perguntar aos alunos o que eles estão usando e por quê”. Isso pode até trazer novas conexões, por meio de conversas como a minha com meu grupo de alunos.
  • Entenda os possíveis sinais de alerta do uso prejudicial de IA. As manchetes alertam sobre pessoas em crise usando IA e sobre algo que ficou conhecido como “Psicose de IA“, onde os usuários formam relacionamentos emocionais com a IA e não conseguem distinguir entre a interação humana e as respostas da máquina. Torous sugeriu que os indivíduos monitorem o uso da IA ​​e se “alguma vez notarem que o uso prejudica as relações do mundo real (por exemplo, preferindo a IA às pessoas) ou atrapalhando os hábitos de saúde (por exemplo, acordado a noite toda por causa do uso da IA), isso é um bom sinal para reduzir ou parar.”

Vasan acrescentou que a linguagem sobre substituição e evasão é outro sinal de alerta. Ela disse: “O maior sinal de alerta é a substituição – quando a IA se torna um substituto para a conexão humana, em vez de um complemento a ela. Se um aluno disser: ‘Minha IA é a única que realmente me entende’, isso não é uma história de sucesso. É uma história de isolamento.”

  • As universidades devem educar, formar e preparar as suas comunidades em matéria de IA e saúde mental. A única forma de as universidades saberem que os seus colaboradores compreendem os riscos, os benefícios e o papel da IA ​​na saúde mental é treiná-los eles próprios. Deve haver sessões direcionadas de divulgação, educação e até mesmo desenvolvimento profissional sobre esses tópicos. Vasan disse: “Treinamos ARs para detectar distúrbios alimentares e reconhecer sinais de uso indevido de álcool. Precisamos da mesma fluência básica em torno da IA ​​e da saúde mental”.

É claro que isso não significa que todos nós nos tornaremos repentinamente fluentes em IA e aprendizado de máquina, mas devemos saber quais perguntas fazer. “Uma hora [of training] é suficiente para levar alguém de ‘Não sei o que dizer sobre isso’ para ‘Sei as perguntas certas a fazer e onde encaminhá-las’”, disse Vasan.

  • Tenha cuidado com os discursos de vendas, mas avalie as oportunidades de investir em novas ferramentas de saúde mental. Como administradores de ensino superior, somos constantemente bombardeados com argumentos de vendas, pessoalmente em conferências e através de mensagens diretas no LinkedIn. Torous disse estar cauteloso com essas propostas e saber que neste momento nenhum sistema de IA afirma oferecer cuidados de saúde mental, apesar do marketing sugerir o contrário, e nenhum foi autorizado pela Food and Drug Administration para oferecê-los. Ele acrescentou: “Não há evidências claras de que os sistemas de IA específicos para saúde mental sejam melhores ou mais seguros do que modelos gerais de IA maiores (por exemplo, Gemini, ChatGPT), portanto, trabalhe para verificar quaisquer afirmações. Se parece bom demais para ser verdade, provavelmente é”.

Vasan disse que antes de qualquer investimento uma universidade deveria pedir evidências como: “Essa ferramenta foi testada com populações vulneráveis? O que acontece quando um usuário está em crise? Existe backup humano? Os dados são realmente privados?”

“A IA de saúde mental que não sabe quando escalar para os humanos não é um suporte; é um risco”, disse Vasan. “O investimento deve concentrar-se em ferramentas que liguem os estudantes aos cuidados, e não os mantenham a falar com máquinas indefinidamente.”

  • Sempre que possível, as universidades devem participar nas discussões sobre regulamentação. Em meio a ações judiciais, há conversas em andamento nos níveis estadual e nacional sobre a regulamentação da IA, especificamente para uso em saúde mental. As universidades devem defender e participar nestas conversas como puderem, porque não conseguem acompanhar o ritmo como reguladoras. Como observou Vasan, “as universidades estão preenchendo um vácuo. Como não há supervisão federal das ferramentas de saúde mental de IA, cada campus está essencialmente realizando sua própria avaliação de segurança. Isso não é sustentável”.

No ensino superior, não podemos simplesmente ignorar o uso novo, em constante evolução e crescente da IA ​​para fins de saúde mental nos nossos campi. Devemos ter cuidado com os riscos e educar sobre eles com frequência, mas também estar atentos sobre como implantar melhor a IA para integrá-la às nossas ofertas atuais, e não impedir o seu uso. Como Vasan me disse: “A IA não é inerentemente boa ou ruim para a saúde mental. É um espelho que reflete como a utilizamos. Se formos cuidadosos, teremos a oportunidade de estender o apoio a estudantes que nunca entrariam em um centro de aconselhamento. Se formos descuidados, poderemos aprofundar o próprio isolamento que estamos tentando resolver”.

Jessi Gold é diretora de bem-estar do sistema da Universidade do Tennessee e professora associada de psiquiatria no Centro de Ciências da Saúde da Universidade do Tennessee.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo