
Continua após a publicidade
A viúva de uma das vítimas mortais do tiroteio ocorrido na Florida State University (FSU), nos EUA, avançou com um processo judicial contra a OpenAI, alegando que o ChatGPT ajudou o atirador a planear o ataque que matou o seu marido.

Continua após a publicidade
Segundo a ação judicial, o chatbot terá fornecido informações relacionadas com o local, horário e armamento mais eficazes para provocar um elevado número de vítimas durante o massacre.
O caso foi inicialmente avançado pela NPR e reproduzido por vários meios internacionais.

Ataque fez dois mortos e vários feridos
O ataque ocorreu em 2025 no campus da Florida State University, em Tallahassee, no estado norte-americano da Florida. O suspeito, identificado como Phoenix Ikner, enfrenta acusações de homicídio em primeiro grau e tentativa de homicídio. Os procuradores pretendem pedir a pena de morte.
Entre as vítimas mortais estava Tiru Chabba, marido de Vandana Joshi, autora do processo contra a OpenAI. A mulher acusa a empresa de ter ignorado riscos conhecidos associados à utilização de sistemas de inteligência artificial generativa.
Em comunicado divulgado pelos advogados, Joshi afirma que “a OpenAI colocou os lucros acima da segurança pública”.

Phoenix Ikner assassinou tragicamente Tiru Chabba (na imagem) e Robert Morales, diretor do refeitório da universidade, ferindo simultaneamente outras seis pessoas.
OpenAI rejeita responsabilidade
A OpenAI negou qualquer envolvimento direto no ataque. Um porta-voz da empresa afirmou à Associated Press que o ChatGPT apenas forneceu respostas baseadas em informação pública disponível na Internet e que não incentivou atividades ilegais ou violentas.
O processo surge numa altura em que aumenta o escrutínio sobre plataformas de inteligência artificial e os mecanismos de segurança implementados para evitar abusos.
Nos últimos meses, a empresa já enfrentou outros processos relacionados com alegadas interações perigosas do ChatGPT, incluindo casos associados a suicídios e episódios de manipulação emocional.
Debate sobre segurança da IA ganha nova dimensão
O caso reacende o debate sobre os limites e responsabilidades das plataformas de IA generativa. Especialistas em ética tecnológica têm alertado para o potencial uso indevido destes sistemas em contextos de violência, manipulação psicológica e desinformação.
Apesar das empresas implementarem filtros e salvaguardas, vários investigadores defendem que os modelos continuam vulneráveis a manipulações através de pedidos formulados de forma indireta ou progressiva.
Saiba mais sobre Inteligência Artificial
Publicidade






