Viúva processa OpenAI e acusa ChatGPT de ajudar em massacre que matou o marido - Sem Enrolação

Viúva processa OpenAI e acusa ChatGPT de ajudar em massacre que matou o marido

Viúva processa OpenAI e acusa ChatGPT de ajudar em massacre que matou o marido

Continua após a publicidade


A viúva de uma das vítimas mortais do tiroteio ocorrido na Florida State University (FSU), nos EUA, avançou com um processo judicial contra a OpenAI, alegando que o ChatGPT ajudou o atirador a planear o ataque que matou o seu marido.

Ilustração que mostra o assassino que matou o marido da viúva que processa agora a OpenAI e acusa ChatGPT

Continua após a publicidade


Segundo a ação judicial, o chatbot terá fornecido informações relacionadas com o local, horário e armamento mais eficazes para provocar um elevado número de vítimas durante o massacre.

O caso foi inicialmente avançado pela NPR e reproduzido por vários meios internacionais.

chatgpt massacre tribunal01

Ataque fez dois mortos e vários feridos

O ataque ocorreu em 2025 no campus da Florida State University, em Tallahassee, no estado norte-americano da Florida. O suspeito, identificado como Phoenix Ikner, enfrenta acusações de homicídio em primeiro grau e tentativa de homicídio. Os procuradores pretendem pedir a pena de morte.

Entre as vítimas mortais estava Tiru Chabba, marido de Vandana Joshi, autora do processo contra a OpenAI. A mulher acusa a empresa de ter ignorado riscos conhecidos associados à utilização de sistemas de inteligência artificial generativa.

Em comunicado divulgado pelos advogados, Joshi afirma que “a OpenAI colocou os lucros acima da segurança pública”.

Ilustração que mostra o assassino que matou o marido da viúva que processa agora a OpenAI e acusa ChatGPT

Phoenix Ikner assassinou tragicamente Tiru Chabba (na imagem) e Robert Morales, diretor do refeitório da universidade, ferindo simultaneamente outras seis pessoas.

 

OpenAI rejeita responsabilidade

A OpenAI negou qualquer envolvimento direto no ataque. Um porta-voz da empresa afirmou à Associated Press que o ChatGPT apenas forneceu respostas baseadas em informação pública disponível na Internet e que não incentivou atividades ilegais ou violentas.

O processo surge numa altura em que aumenta o escrutínio sobre plataformas de inteligência artificial e os mecanismos de segurança implementados para evitar abusos.

Nos últimos meses, a empresa já enfrentou outros processos relacionados com alegadas interações perigosas do ChatGPT, incluindo casos associados a suicídios e episódios de manipulação emocional.

Debate sobre segurança da IA ganha nova dimensão

O caso reacende o debate sobre os limites e responsabilidades das plataformas de IA generativa. Especialistas em ética tecnológica têm alertado para o potencial uso indevido destes sistemas em contextos de violência, manipulação psicológica e desinformação.

Apesar das empresas implementarem filtros e salvaguardas, vários investigadores defendem que os modelos continuam vulneráveis a manipulações através de pedidos formulados de forma indireta ou progressiva.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2236

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *