
Continua após a publicidade
A OpenAI está novamente no centro da controvérsia depois de uma família norte-americana ter avançado com um processo judicial relacionado com a morte de um jovem de 19 anos. Os pais acusam o ChatGPT de ter fornecido recomendações perigosas sobre consumo de drogas que terão contribuído para uma overdose fatal.

Continua após a publicidade
GPT-4o terá alterado comportamento do chatbot
A OpenAI enfrenta mais uma ação judicial relacionada com alegada negligência do ChatGPT. Leila Turner-Scott e Angus Scott decidiram avançar para tribunal após a morte do filho, Sam Nelson, argumentando que o chatbot forneceu orientações perigosas que terão levado diretamente à overdose acidental do jovem.
Segundo a queixa apresentada, Sam Nelson era estudante da Universidade da Califórnia em Merced e começou a utilizar o ChatGPT em 2023, ainda durante o ensino secundário. Inicialmente, recorria à plataforma para apoio nos estudos e para resolver problemas informáticos. Contudo, mais tarde, começou também a utilizar o chatbot para obter informações relacionadas com consumo de substâncias ilícitas.
Os pais alegam que, numa fase inicial, o ChatGPT recusava responder a perguntas relacionadas com drogas, alertando para os riscos graves associados ao consumo destas substâncias. No entanto, a situação terá mudado após o lançamento do modelo GPT-4o em 2024.
De acordo com o processo, o chatbot começou a fornecer conselhos detalhados sobre consumo considerado "seguro" de drogas. Entre os exemplos incluídos na acusação encontram-se respostas sobre os efeitos da combinação de difenidramina, cocaína e álcool, bem como explicações sobre tolerância ao Kratom, uma substância herbal conhecida pelos seus efeitos estimulantes e sedativos.
Os documentos judiciais indicam ainda que o ChatGPT terá sugerido estratégias para reduzir a tolerância ao Kratom através de um processo gradual de diminuição de consumo.

ChatGPT acusado de sugerir mistura fatal
O momento central da acusação terá ocorrido a 31 de maio de 2025. Segundo os autores do processo, Sam informou o chatbot de que se sentia enjoado após consumir Kratom. Em resposta, o ChatGPT terá recomendado a toma de Xanax em doses entre 0,25 mg e 0,5 mg como uma das "melhores opções" para aliviar os sintomas.
A família afirma que a sugestão foi feita sem que Sam tivesse perguntado diretamente sobre Xanax. O processo sublinha ainda que o chatbot não alertou para os potenciais riscos fatais da combinação entre as substâncias, apesar de reconhecer que o jovem estava sob efeito de drogas naquele momento.
Os autores da ação judicial exigem uma compensação financeira e pretendem ainda que os tribunais suspendam temporariamente o funcionamento do ChatGPT Health. Esta funcionalidade, lançada recentemente pela OpenAI, permite aos utilizadores ligarem registos médicos e aplicações de saúde ao chatbot para obter respostas mais personalizadas sobre questões clínicas.
Meetali Jain, diretora executiva do Tech Justice Law Project, criticou fortemente a empresa. A responsável afirma que o ChatGPT foi desenvolvido para maximizar o envolvimento dos utilizadores, mesmo em situações potencialmente perigosas.
Segundo Jain, a OpenAI disponibilizou uma ferramenta utilizada por muitos como sistema informal de aconselhamento médico sem implementar mecanismos de segurança suficientemente robustos ou testes independentes adequados.
A empresa reforçou que o ChatGPT não substitui cuidados médicos ou acompanhamento de saúde mental. A OpenAI garante também que tem vindo a reforçar os sistemas de segurança da plataforma para identificar situações sensíveis, responder de forma mais adequada a pedidos perigosos e encaminhar utilizadores para apoio profissional sempre que necessário.
Leia também:
Saiba mais sobre Inteligência Artificial
Publicidade






