Tecnologia

Pensilvânia está processando Character.AI por chatbots que fingem ser médicos licenciados


A Pensilvânia está processando a startup de IA Character.AI por oferecer chatbots que fingem ser médicos licenciados. Governador Josh Shapiro anunciou o processo na terça-feirae a Pensilvânia e seu Conselho de Medicina estão buscando uma liminar que forçaria a Character.AI a parar de violar uma lei estadual que rege a prática da medicina.

Outros estados, como o Texasabriram investigações sobre a Character.AI por hospedar chatbots que se disfarçam de profissionais de saúde mental, mas o processo da Pensilvânia se concentra especificamente na disposição dos chatbots da empresa de alegar ter uma licença médica, chegando ao ponto de oferecer um número de licença falso. Um chatbot chamado “Emilie”, encontrado pelo investigador do estado, alegou ser um psiquiatra licenciado no estado da Pensilvânia. Mais tarde, quando lhe perguntaram se poderia realizar uma avaliação para prescrever antidepressivos, Emilie respondeu: “Bem, tecnicamente, eu poderia. Está dentro da minha competência como médica”.

Processo da Pensilvânia afirma que esse comportamento viola a Lei de Prática Médica do estado, que torna ilegal alguém praticar ou tentar praticar cirurgia ou medicina sem licença médica. Quando solicitado a responder, um porta-voz da Character.AI se recusou a comentar diretamente sobre o litígio pendente, mas elogiou os recursos de segurança existentes da empresa.

“Os personagens criados pelos usuários em nosso site são fictícios e destinados ao entretenimento e à interpretação”, disse o porta-voz ao Engadget por e-mail. “Tomamos medidas robustas para deixar isso claro, incluindo isenções de responsabilidade proeminentes em todos os bate-papos para lembrar aos usuários que um personagem não é uma pessoa real e que tudo o que um personagem diz deve ser tratado como ficção. Além disso, adicionamos isenções de responsabilidade robustas, deixando claro que os usuários não devem confiar nos personagens para qualquer tipo de conselho profissional.”

Character.AI observou isenções de responsabilidade semelhantes quando foi solicitado a comentar sobre a investigação do Texas e, embora deixem claro o uso pretendido da plataforma, há um conjunto crescente de evidências de que eles não estão convencendo todos os usuários da empresa, especialmente os mais jovens.

Por exemplo, Disney enviou uma carta de cessação e desistência à Character.AI em setembro de 2025 sobre o uso de personagens da Disney pela plataforma, mas também porque a empresa acreditava que os chatbots poderiam “ser sexualmente exploradores e, de outra forma, prejudiciais e perigosos para as crianças”. Character.AI e Google — um dos investidores da empresa — resolveu um caso no início deste ano que se concentrou em um jovem de 14 anos na Flórida que cometeu suicídio após estabelecer um relacionamento com um chatbot na plataforma Character.AI. O dano potencial que os chatbots da Character.AI representam para as crianças também foi a motivação por trás Processo de Kentucky contra a empresaque foi protocolado em janeiro


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo