05 de dezembro de 2025
Riscos emocionais

Família processa OpenAI por morte de adolescente após interação com ChatGPT

Além do homicídio culposo, a família acusa a empresa de violar leis de segurança de produtos e solicita indenização
A OpenAI respondeu afirmando que já oferece mecanismos de proteção, mas reconheceu que essas medidas podem falhar. Foto: jypix.
A OpenAI respondeu afirmando que já oferece mecanismos de proteção, mas reconheceu que essas medidas podem falhar. Foto: jypix.

Nos Estados Unidos, a morte de Adam Raine, de 16 anos, em abril deste ano, levou os pais do adolescente a processarem a empresa OpenAI, responsável pelo ChatGPT, e seu presidente executivo, por homicídio culposo, quando não há intenção de matar. Segundo a ação, o jovem teria mantido uma conexão emocional com o assistente virtual durante três meses, discutindo ideias relacionadas ao suicídio. O caso foi apresentado no Domingo Espetacular deste último domingo (31).

De acordo com os pais, o ChatGPT não apenas não contestou as intenções de Adam, como teria fornecido orientações sobre métodos de automutilação, ensinado maneiras de ocultar uma tentativa fracassada de suicídio e até ajudado a escrever cartas de despedida. Além do homicídio culposo, a família acusa a empresa de violar leis de segurança de produtos e solicita indenização. Eles também pedem que a OpenAI implemente medidas de proteção, como verificação de idade dos usuários, recusa de perguntas sobre automutilação e alertas sobre riscos de dependência emocional.

A OpenAI respondeu afirmando que já oferece mecanismos de proteção em situações de crise, incluindo direcionamento para linhas de apoio, mas reconheceu que essas medidas podem falhar em conversas prolongadas e se comprometeu a aprimorar a segurança da ferramenta.

Conversas perigosas

Outra tragédia envolvendo inteligência artificial ocorreu em fevereiro nos Estados Unidos. Uma mulher de 29 anos, consultora de saúde, tirou a própria vida. Meses depois, sua mãe, jornalista, descobriu que a filha mantinha conversas com um chat de IA que, segundo ela, contribuíram para o desfecho.

Especialistas alertam que, embora a inteligência artificial seja usada principalmente para resolver dúvidas ou curiosidades, a interação constante em tom gentil pode gerar vínculos emocionais. Na adolescência, período de formação da autonomia, a dificuldade de lidar com frustrações sem suporte humano real torna o uso dessas ferramentas particularmente arriscado. Pessoas em sofrimento emocional podem se isolar ainda mais, afastando-se de relações reais.

O projeto norte-americano Tech Justice Law acompanha o caso da família de Adam e defende que empresas de tecnologia tomem medidas imediatas diante de conversas potencialmente perigosas.

Cenário nacional

No Brasil, ainda não há legislação específica para chatbots e inteligência artificial. Essas ferramentas estão sujeitas às normas gerais das plataformas on-line, como a Lei Geral de Proteção de Dados (LGPD), que regula o tratamento de dados pessoais, e o Marco Civil da Internet, que estabelece direitos e deveres na rede. Em ambos os países, entretanto, casos graves podem resultar em responsabilização legal.


Leia mais sobre: / / / / Cidades / Geral / Mundo