Processo culpa OpenAI, fabricante do ChatGPT, por ajudar a planejar tiroteio em universidade da Flórida

A viúva de um homem morto no tiroteio em massa do ano passado na Florida State University está processando a OpenAI, fabricante do ChatGPT, culpando o chatbot de inteligência artificial da empresa por dar conselhos sobre como realizar o ataque.
O processo surge depois que as autoridades estaduais divulgaram que o ChatGPT deu informações ao atirador sobre qual horário e local maximizariam as vítimas no campus, bem como o tipo de arma e munição a ser usada. As autoridades dizem que ele também foi informado de que um ataque pode atrair mais atenção da mídia se houver crianças envolvidas.
“A OpenAI sabia que isso iria acontecer. Já aconteceu antes e era apenas uma questão de tempo até que acontecesse novamente”, disse Vandana Joshi, cujo marido Tiru Chabba foi uma das duas pessoas mortas, em comunicado na segunda-feira. Seis pessoas também ficaram feridas.
A ação, movida no domingo no tribunal federal, diz que a OpenAI deveria ter construído o ChatGPT com medidas de segurança para que alguém soubesse que a polícia pode precisar investigar “para evitar um plano específico para danos iminentes ao público”.
A OpenAI negou qualquer irregularidade no que chamou de “crime terrível”.
“Neste caso, o ChatGPT forneceu respostas factuais a perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na Internet e não encorajou ou promoveu atividades ilegais ou prejudiciais”, disse Drew Pusateri, porta-voz da empresa, num e-mail à Associated Press.



