Educação

A sua IA é ética, centrada no ser humano e pró-social?

As ferramentas de IA não são mais um mecanismo de pesquisa relativamente simples, impulsionado por métricas de marketing para nos ajudar a conduzir nossa pesquisa. Em vez disso, com a IA estamos a utilizar ferramentas mais sofisticadas que conduzem pesquisas e procuram respostas às nossas solicitações, ao mesmo tempo que tomamos decisões de seleção de fontes, configurações contextuais e subtilezas semânticas que têm impacto nos valores expressos nos resultados.

Como mencionei anteriormente nestas colunas, na maioria das vezes busco informações de uma versão atual de cada um dos três modelos de fronteira ao conduzir pesquisas. A abordagem de três pontos de vista permite-me examinar uma variedade de fontes e pontos de vista e equilibrar os resultados para abordar perspectivas éticas e sociais. No caso deste artigo, coloquei um hiperlink imediatamente abaixo das respostas da pesquisa básica que obtive das solicitações em 19 de abril.

Modelo de pensamento ChatGPT 5.4 sugeriu: “No ensino superior, o modelo de IA eticamente preferível não é necessariamente o mais poderoso; é o modelo que funciona bem o suficiente para o caso de uso, ao mesmo tempo que oferece a evidência mais forte de design centrado no ser humano, transparência, testes de segurança e controlabilidade institucional”.

Claude Sonnet 4.6 Modelo adaptativo sugeriu: “Escolher um modelo de IA é agora um ato ético, não apenas técnico. O campo mudou de ‘isso funciona?’ para ‘isso serve?’ Sua coluna pode ajudar reitores e chefes de departamento a se tornarem consumidores éticos informados – não engenheiros de IA, mas administradores críticos.”

Modelo de pensamento Gêmeos 3 observou: “Dado seu trabalho recente sobre como maximizar retornos na administração de IA, mudar o foco para ‘Valores R’ (Retorno sobre Valores) é uma evolução oportuna e necessária para a conversa sobre Educação Superior.”

Antes de examinarmos os valores e orientações padrão inerentes a alguns dos principais modelos de IA, deixe-me lembrá-lo de que, ao elaborar seu prompt, você pode incentivar a ferramenta a colocar ênfase na geração de respostas que incluam orientações e perspectivas que abordem considerações éticas. Sua solicitação pode direcionar o modelo para fornecer resultados que explorem, destaquem ou enfatizem soluções e exemplos pró-sociais ou centrados no ser humano. Com o tempo, se você incluir tais instruções em seus prompts, os modelos mais sofisticados que retêm a memória de seus prompts anteriores aprenderão que você está interessado nesses valores. Se suas perspectivas preferidas não estiverem incluídas, você poderá refinar as respostas incluindo uma solicitação em um prompt de acompanhamento iterativo.

Cornélia C. Walther é pesquisador visitante na Wharton School da Universidade da Pensilvânia e profissional humanitário que passou mais de 20 anos nas Nações Unidas. Sua pesquisa se concentra em aproveitar a IA para o bem social. Walther observa em uma edição recente de Conhecimento na Wharton que a maior parte da pesquisa sobre modelos de IA é feita “exclusivamente sob a ótica de ganhos de eficiência, reduções de custos e aumento de receitas”. No entanto, Walther diz: “Os painéis existentes não captam se um sistema de IA é justo, se está a desgastar ou a construir confiança, se está a tornar as pessoas que o utilizam mais capazes ou a desqualificá-las silenciosamente, e se a sua pegada ambiental é contabilizada ou simplesmente ignorada”.

No final do verão passado, Walther publicou um artigo na Forbes intitulado “Por que a IA ProSocial é uma IA ProPlanetária. Uma promessa para a harmonia planetária“, no qual ela explicou uma série de elementos de avaliação da IA ​​que podem ser usados ​​para determinar a sensibilidade ao bem social. Walther observa que a IA pró-social “não se trata apenas de tornar a IA mais útil ou ética. Trata-se de criar tecnologia que seja simultaneamente pró-pessoas, pró-planeta e pró-potencial.”

Ela aponta para o Índice de segurança de IA de 2025 do Future of Life Institute como um dos primeiros exemplos de tal avaliação. Nesse índice, entre sete dos maiores modelos, a Anthropic obteve C-plus com 2,64, OpenAI com C com 2,10 e Google DeepMind com C-menos com 1,76. Notavelmente, DeepSeek obteve nota F com 0,37.

Se você deseja examinar mais de perto as ferramentas de IA que utiliza, incluindo ferramentas personalizadas que sua universidade pode usar para fins específicos, Walther sugere utilizar os principais elementos pró-sociais para criar uma grade quatro por quatro. Esses elementos são detalhados no Conhecimento na Wharton artigo:

OS 4 T’s

  • Adaptado: O sistema de IA foi projetado para o contexto, a cultura e as restrições específicas de seus usuários – e não foi copiado de um modelo genérico?
  • Treinado: O sistema é construído com base em dados e objetivos representativos e inclusivos que codificam os valores que a organização realmente deseja promover, e não em métricas proxy que são meramente convenientes?
  • Testado: É rigorosamente avaliado quanto a preconceitos, robustez e consequências não intencionais – antes da implantação e continuamente depois?
  • Direcionado: É aplicado onde a IA agrega valor genuíno e retido – deliberadamente – onde o julgamento humano é insubstituível?

Os 4 P’s

  • Objetivo: O sistema promove uma missão da qual todas as partes interessadas possam se orgulhar, além do próximo ciclo trimestral?
  • Pessoas: Melhora a experiência, o arbítrio e o bem-estar de todos que o constroem, usam e são afetados por ele?
  • Lucro: Gera valor financeiro durável – não através da externalização de custos para a sociedade, mas através da criação de valor genuíno?
  • Planeta: O seu consumo de energia, a pegada de materiais e o impacto ambiental sistémico são contabilizados e ativamente reduzidos?

Walther sugere montar uma equipe de liderança pronta para agir agora. O ponto de entrada é deliberadamente de baixo atrito. Escolha um sistema de IA atualmente em produção, como um chatbot voltado para o cliente, uma ferramenta de triagem de contratação ou um modelo de previsão de demanda, e organize um workshop multifuncional de 90 minutos com representantes de tecnologia, RH, finanças, jurídico e sustentabilidade. Trabalhando juntas na grade quatro por quatro de 16 células da matriz, marque cada uma delas em um sistema simples de semáforos: verde (forte), âmbar (em desenvolvimento) ou vermelho (não conforme).

Você não precisa de um consultor ou de uma nova plataforma de software para fazer isso. É necessária honestidade intelectual, vontade de agir com base no que encontrarmos e a convicção de que as instituições que florescerão na era algorítmica serão aquelas que tiveram a sabedoria para decidir, primeiro, o que merece ser gerido e depois construir os instrumentos adequados. Essa conversa de 90 minutos é onde começa a mudança de “valorize o que você pode medir” para “medir o que você deve valorizar”.

Se a missão ou os objetivos de toda a sua instituição incluírem valores éticos, centrados no ser humano ou pró-sociais, você deverá avaliar e, quando necessário, remediar as ferramentas de IA que ficam aquém dos valores coletivos. Você está pronto para liderar a iniciativa de começar a abordar a orientação pró-social das ferramentas de IA que você usa em sua universidade, departamento, faculdade, escola ou divisão?


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo