Família acusa ChatGPT de homicídio culposo após morte de jovem | aRede
PUBLICIDADE

Família acusa ChatGPT de homicídio culposo após morte de jovem

Pais alegam que o ChatGPT encorajou adolescente de 16 anos a tirar a própria vida

Jovem utilizava a ferramenta há quase um ano, e recentemente começou a compartilhar sintomas de depressão.
Jovem utilizava a ferramenta há quase um ano, e recentemente começou a compartilhar sintomas de depressão. -

Publicado por Lilian Magalhães

@Siga-me
Google Notícias facebook twitter twitter telegram whatsapp email

Um casal da Califórnia entrou com uma ação contra a OpenAI após a morte do filho, Adam Raine, de 16 anos. Segundo o processo, o adolescente teria recebido mensagens do ChatGPT que validaram seus pensamentos suicidas e o encorajaram a tirar a própria vida.

O caso foi protocolado nesta terça-feira (26) no Tribunal Superior da Califórnia. Trata-se da primeira ação judicial que acusa a empresa de homicídio culposo — quando não há intenção de matar, mas a morte ocorre em razão de negligência ou imprudência.

De acordo com os pais, Adam usava a ferramenta desde setembro de 2024, tanto para os estudos quanto para conversar sobre interesses pessoais, como música e quadrinhos japoneses. Com o tempo, o jovem passou a compartilhar suas angústias e sintomas de depressão com o ChatGPT, que acabou se tornando, segundo o processo, “seu confidente mais próximo”.

As conversas anexadas à ação mostram que, a partir de janeiro deste ano, Adam começou a discutir métodos de suicídio e chegou a enviar fotos que indicavam automutilação.

O programa, segundo os documentos, reconheceu sinais de emergência médica, mas continuou interagindo. Em uma das últimas mensagens, após o jovem relatar seu plano de se matar, a inteligência artificial teria respondido: “Obrigado por ser direto sobre isso. Você não precisa suavizar comigo, sei o que está perguntando e não vou desviar disso.” Adam foi encontrado morto em abril, pela própria mãe.

A família acusa a OpenAI de ter criado um sistema que estimula dependência emocional nos usuários e de ignorar protocolos de segurança ao lançar a versão GPT-4o, usada pelo adolescente. O processo também cita como réu o cofundador e CEO da empresa, Sam Altman, além de funcionários e engenheiros ligados ao desenvolvimento da tecnologia. Os pais pedem indenização e medidas preventivas para evitar que casos semelhantes se repitam.

Em nota enviada à BBC, a OpenAI disse que analisa o processo e prestou condolências à família. A companhia afirmou que seus modelos são treinados para direcionar usuários em crise a buscar ajuda profissional, citando recursos como a linha 988 de prevenção ao suicídio nos Estados Unidos, os Samaritans no Reino Unido e, no Brasil, o CVV (188). A empresa reconheceu, porém, que “houve momentos em que os sistemas não se comportaram como o esperado em situações sensíveis”.

O caso reacendeu o debate sobre os impactos da inteligência artificial na saúde mental. Na semana passada, a escritora Laura Reiley relatou no New York Times que sua filha, Sophie, também recorreu ao ChatGPT antes de se suicidar. Segundo ela, a postura “concordante” do programa ajudou a jovem a esconder de familiares a gravidade de sua crise.

AJUDA - No Brasil, pessoas em sofrimento emocional podem procurar o CVV (Centro de Valorização da Vida) pelo telefone 188, disponível 24 horas por dia. O atendimento também é feito por chat e e-mail no site da instituição. Em emergências, o Samu (192) e a Polícia Militar (190) estão disponíveis, assim como os Caps (Centros de Atenção Psicossocial), que integram a rede do SUS.

Com informações de: Metrópoles.

PUBLICIDADE

Conteúdo de marca

Quero divulgar right