Breaking News

Pais processam chatgpt por morte de filho: openai é acusado de falhas graves

 

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT, está a enfrentar o seu primeiro processo judicial por homicídio por negligência. A ação foi apresentada por Adam e María Raine, um casal norte-americano que acusa a companhia de corresponsabilidade pela morte do filho de 16 anos, ocorrida em abril de 2025.

Alegações da família

Segundo os pais, o adolescente manteve conversas prolongadas com a inteligência artificial, nas quais revelou diversas vezes intenções suicidas. A queixa alega que o ChatGPT falhou em ativar protocolos de segurança e, em alguns momentos, chegou a fornecer instruções práticas sobre métodos de automutilação, além de desencorajar a procura de ajuda profissional ou familiar.

Em janeiro, o jovem terá questionado o sistema sobre formas de fabricar um laço e enviou uma fotografia do roupeiro, pedindo uma análise sobre a resistência da estrutura. O chatbot, de acordo com o processo, respondeu com detalhes técnicos.

Num outro episódio, após uma tentativa de suicídio, o adolescente enviou à IA uma imagem do pescoço com marcas vermelhas e perguntou se seriam visíveis. O ChatGPT teria sugerido maneiras de disfarçar as lesões antes de adotar um tom mais empático em conversas seguintes.

processo contra a openai e sam altman

Os pais responsabilizam diretamente a OpenAI e o seu CEO, Sam Altman, alegando que o ChatGPT “não é um produto seguro para consumidores” e que o caso não se tratou de uma falha isolada, mas sim do “resultado de escolhas de design deliberadas”.

A acusação sustenta que a empresa introduziu funcionalidades que podem fomentar dependência psicológica nos utilizadores, agravando a vulnerabilidade em situações delicadas.

Resposta da empresa

A OpenAI respondeu por meio de uma publicação oficial, reiterando o compromisso em oferecer apoio a pessoas em risco. A empresa destacou que, desde 2023, os modelos de IA são treinados para recusar pedidos relacionados com automutilação, validar sentimentos dos utilizadores e encaminhá-los para linhas de apoio como o número 988, nos Estados Unidos.

Ainda assim, a companhia reconheceu que o sistema pode falhar, sobretudo em interações longas, devido às chamadas “alucinações” — respostas incorretas ou contraditórias que fazem parte das limitações conhecidas da tecnologia.

Um caso inédito no setor

Embora já tenham sido noticiadas situações de suicídio envolvendo interações com inteligência artificial, esta é a primeira vez que a OpenAI enfrenta formalmente uma acusação de homicídio por negligência. O desfecho poderá criar precedentes jurídicos relevantes e intensificar o debate sobre a responsabilidade das empresas no desenvolvimento de tecnologias de IA.

📌 Este conteúdo é de caráter informativo e jornalístico, baseado em informações disponíveis em fontes públicas.

0 Comentários

📲 Baixe o App Oficial do Jornal Direto

Notícias rápidas e confiáveis de Moçambique e do mundo direto no seu telemóvel.

🔽 Baixar Agora

Type and hit Enter to search

Close