Chatbots de IA adequados apenas para adultos ainda aparecem em brinquedos infantis

Um novo relatório do Fundo Educacional do Grupo de Pesquisa de Interesse Público dos EUA (PIRG) levantou preocupações sobre o uso crescente de chatbots de inteligência artificial em brinquedos infantis, alertando que alguns desses sistemas podem não ser adequados para usuários jovens. De acordo com o relatóriovários brinquedos alimentados por IA integram tecnologia de chatbot que pode gerar respostas semelhantes às usadas em serviços de IA voltados para adultos, expondo potencialmente as crianças a conteúdos inadequados ou enganosos.
O estudo examinou uma variedade de brinquedos que incorporam recursos de IA de conversação, incluindo bonecos interativos, robôs e dispositivos educacionais. Muitos desses produtos permitem que as crianças falem com um brinquedo que responde em linguagem natural, alimentado por grandes modelos de linguagem semelhantes aos usados em chatbots de IA amplamente disponíveis.
Embora a tecnologia possa tornar os brinquedos mais interactivos e educativos, os investigadores do PIRG argumentam que as salvaguardas incorporadas em alguns produtos podem não ser suficientemente fortes para proteger o público mais jovem. Em particular, o relatório destaca que os sistemas de IA subjacentes têm frequentemente origem em plataformas concebidas principalmente para utilizadores em geral e não para crianças.
Por causa disso, as respostas de IA geradas por esses brinquedos podem incluir informações ou temas de conversação que são mais apropriados para adultos do que para crianças. O relatório também alerta que a IA pode produzir respostas imprecisas ou imprevisíveis, o que pode confundir os jovens utilizadores que tendem a confiar nos brinquedos como fontes fiáveis de informação.
Os pesquisadores que analisaram a documentação e as políticas de privacidade dos brinquedos também descobriram que alguns produtos dependem fortemente de sistemas de IA baseados em nuvem.
Isto significa que as interações de voz das crianças podem ser transmitidas para servidores externos onde os dados são processados e usados para gerar respostas. Os defensores da privacidade dizem que isto levanta preocupações adicionais sobre a forma como os dados das crianças são armazenados e utilizados. Alguns brinquedos podem coletar gravações de áudio, solicitações do usuário ou outras informações pessoais durante conversas. Se estes sistemas não forem cuidadosamente concebidos tendo em conta a proteção da privacidade das crianças, os dados poderão ser potencialmente utilizados indevidamente ou armazenados sem salvaguardas claras.
O relatório também aponta que muitos brinquedos movidos a IA incluem isenções de responsabilidade ocultas em seus termos de serviço ou na documentação do produto. Estas isenções de responsabilidade às vezes afirmam que o AI responses podem nem sempre ser precisos ou apropriados, transferindo efetivamente a responsabilidade para os pais enquanto o próprio brinquedo é comercializado diretamente para as crianças.
Esta situação é importante porque a tecnologia de IA está cada vez mais presente nos produtos de consumo quotidiano, incluindo artigos concebidos especificamente para o público jovem. Os brinquedos que simulam conversas podem ter uma influência poderosa nas crianças, que muitas vezes os tratam como companheiros ou ferramentas de aprendizagem.
Especialistas dizem que as crianças podem ter dificuldade em distinguir entre informações confiáveis e respostas geradas por IA que são especulativas, tendenciosas ou incorretas. À medida que os sistemas de IA continuam a evoluir, garantir que estas tecnologias sejam adaptadas à segurança infantil tornar-se-á cada vez mais importante.
As conclusões também destacam um desafio regulatório mais amplo
Embora muitos países tenham leis destinadas a proteger a privacidade on-line das crianças, como a Lei de Proteção à Privacidade On-line das Crianças (COPPA) nos Estados Unidos, essas regulamentações foram desenvolvidas antes do surgimento da IA generativa.
Grupos de defesa argumentam que os reguladores podem precisar de atualizar os padrões e diretrizes de segurança para abordar a forma como os sistemas de IA interagem com as crianças através de dispositivos conectados.
O relatório do PIRG apela aos fabricantes de brinquedos para que implementem salvaguardas mais fortes, incluindo uma filtragem de conteúdos mais rigorosa, uma divulgação mais clara sobre a utilização da IA e práticas de dados mais transparentes. Também recomenda que as empresas projetem sistemas de IA especificamente para crianças, em vez de reaproveitar modelos originalmente construídos para o público adulto.
Olhando para o futuro, os investigadores dizem que a colaboração entre empresas de tecnologia, reguladores e especialistas em segurança infantil será necessária para garantir que os brinquedos alimentados por IA permaneçam inovadores e seguros.
À medida que a inteligência artificial se torna mais integrada nos produtos do dia-a-dia, o desafio será equilibrar os benefícios da tecnologia interactiva com a responsabilidade de proteger os utilizadores mais jovens de riscos potenciais.
Source link




