Tecnologia

Famílias das vítimas do tiroteio em Tumbler Ridge processam OpenAI


Poucos dias depois do CEO da OpenAI, Sam Altman escreveu um pedido público de desculpas para a população de Tumbler Ridge, na Colúmbia Britânica, após o tiroteio mortal na escola em 10 de fevereiro, as famílias das vítimas do evento traumático estão processando a OpenAI por negligência.

O tiroteio em massa, um dos mais mortíferos da história canadense, viu o suposto atirador, Jesse Van Rootselaar, de 18 anos, entrar na escola secundária local da cidade e matar cinco estudantes e um professor, além de ferir gravemente outros dois, antes de tirar a própria vida. A polícia local descobriu mais tarde que Van Rootselaar também matou a mãe e o meio-irmão de 11 anos antes de entrar na escola.

Por NPRadvogados que representam algumas famílias de Tumbler Ridge entraram com seis ações diferentes na quarta-feira em um tribunal federal de São Francisco. Uma das reclamações, apresentada em nome de Maya Gebalauma sobrevivente do tiroteio, alega que os sistemas de segurança automatizados da OpenAI sinalizaram as conversas ChatGPT de Van Rootselaar em junho de 2025, mais de meio ano antes de ela entrar na escola secundária da cidade com uma arma longa e um rifle modificado, por “atividade e planejamento de violência armada”. Afirma ainda que a equipe de segurança da OpenAI instou a administração a entrar em contato com as autoridades, mas que a empresa optou por desativar a conta Van Rootselaar. Mais tarde, ela criou uma segunda conta e continuou suas conversas com o ChatGPT.

“Os eventos em Tumbler Ridge são uma tragédia. Temos uma política de tolerância zero para usar nossas ferramentas para ajudar no cometimento de violência”, disse um porta-voz da OpenAI ao Engadget. “Conforme partilhamos com as autoridades canadianas, já reforçámos as nossas salvaguardas, incluindo a melhoria da forma como o ChatGPT responde aos sinais de angústia, ligando as pessoas ao apoio local e aos recursos de saúde mental, fortalecendo a forma como avaliamos e escalamos potenciais ameaças de violência e melhorando a detecção de infratores reincidentes”.

Na noite de terça-feira, a OpenAI publicou um postagem no blog delineando suas políticas de segurança. “Como parte deste trabalho contínuo, continuamos expandindo nossas salvaguardas para ajudar o ChatGPT a reconhecer melhor sinais sutis de risco de danos em diferentes contextos. Alguns riscos de segurança só se tornam claros com o tempo: uma única mensagem pode parecer inofensiva por si só, mas um padrão mais amplo dentro de uma longa conversa – ou entre conversas – pode sugerir algo mais preocupante”, escreveu a empresa.

As ações movidas na quarta-feira são a mais recente tentativa de usar o sistema legal para responsabilizar a OpenAI pelo design de seus produtos. No verão passado, os pais de Adam Raine, um adolescente que cometeu suicídio em 2025, entraram com a ação primeiro processo de homicídio culposo conhecido contra uma empresa de IAalegando que ChatGPT estava ciente de quatro tentativas anteriores de Raine de tirar a própria vida antes de ter sucesso.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo