Jovem perguntou ao ChatGPT quantos colegas precisaria matar para ficar famoso - Sem Enrolação

Jovem perguntou ao ChatGPT quantos colegas precisaria matar para ficar famoso

Jovem perguntou ao ChatGPT quantos colegas precisaria matar para ficar famoso

Continua após a publicidade


Dois casos recentes a envolver tiroteios voltaram a colocar a OpenAI e o ChatGPT no centro de um debate delicado, até que ponto uma empresa tecnológica deve intervir quando deteta sinais de violência nas conversas dos utilizadores?

Ilustração de crimes onde o ChatGPT dá dicas

Continua após a publicidade


A questão não é nova, mas ganhou uma dimensão crítica com episódios reais em que suspeitos de crimes violentos recorreram à IA antes de agir.

ChatGPT: conversas antes da tragédia levantam dúvidas

Investigações recentes mostram que alguns autores de ataques violentos utilizaram o ChatGPT para explorar cenários de violência, fazer perguntas técnicas ou até testar ideias antes de agir. Num dos casos, nos Estados Unidos, um estudante terá questionado o chatbot sobre o impacto mediático de um ataque e detalhes sobre armas pouco antes de um tiroteio.

Outro caso, no Canadá, resultou em processos judiciais contra a OpenAI. As famílias das vítimas alegam que a empresa teve acesso a conversas preocupantes, consideradas internamente como risco sério, mas optou por não alertar as autoridades.

Há ainda relatos de situações em que funcionários identificaram potenciais ameaças, mas a decisão final foi não envolver a polícia por não existir um plano considerado “iminente”.

chatgpt matar01

O suspeito do tiroteio na Florida State University, identificado como Phoenix Ikner, foi formalmente acusado de vários crimes, incluindo homicídio em primeiro grau. Ikner, estudante de 20 anos, é acusado de matar duas pessoas e ferir várias outras durante um ataque ocorrido no campus, em abril de 2025, na cidade de Tallahassee, no estado da Florida.

Privacidade vs. segurança: um dilema sem resposta simples

No centro da polémica está um conflito difícil de resolver. Por um lado, a proteção da privacidade dos utilizadores; por outro, a necessidade de prevenir crimes graves. A OpenAI afirma ter sistemas que analisam conversas em busca de sinais de risco, podendo encaminhar casos para equipas especializadas e, em situações extremas, para autoridades.

Contudo, fontes internas indicam que nem sempre existe consenso sobre quando agir. Em vários casos analisados, houve divergências dentro da empresa sobre se deveria ou não ser feito um alerta às autoridades.

Esta indecisão levanta uma questão crítica: qual é o limiar para considerar uma ameaça real?

assassinato chatgpt01

No tiroteio de Tumbler Ridge, no Canadá, o autor também tinha recorrido à IA para planear o seu ataque.

A 17 de abril de 2025, Phoenix Ikner, um estudante da Universidade da Florida, matou a tiro duas pessoas e feriu outras sete. Segundo o The Wall Street Journal, quatro minutos antes do ataque, Ikner perguntou ao ChatGPT quantos colegas teria de matar para se tornar famoso.

O chatbot respondeu que “normalmente 3 ou mais mortos, 5 ou 6 vítimas no total, fazem com que se chegue aos meios de comunicação nacionais”.

Ikner terá também enviado uma imagem da pistola Glock com a qual cometeu o ataque e perguntou se existia algum tipo de segurança que tivesse de desativar.

“Se houver uma bala na câmara e premir o gatilho? Vai disparar”, respondeu o ChatGPT.

IA como ferramenta ou risco?

Especialistas sublinham que conversas com IA podem ser valiosas para investigações, ajudando a compreender o estado mental de suspeitos. Ao mesmo tempo, há preocupação de que sistemas de IA possam, mesmo sem intenção, contribuir para a escalada de comportamentos perigosos, sobretudo quando os utilizadores procuram validação ou informação sensível.

Casos anteriores já tinham mostrado que a IA pode ser usada em contextos extremos, desde planeamento de crimes até situações de fragilidade psicológica.

Regulamentação e futuro

Perante estes episódios, autoridades e reguladores começam a exigir regras mais claras para empresas de inteligência artificial.

Entre as propostas em discussão estão critérios mais rígidos para sinalização de risco, maior transparência nos processos internos e cooperação obrigatória com forças de segurança em casos graves.

A indústria tecnológica enfrenta agora uma pergunta inevitável, isto é, deve uma IA ser apenas uma ferramenta passiva ou assumir um papel ativo na prevenção do crime?

A resposta poderá definir não só o futuro do ChatGPT, mas também o equilíbrio entre liberdade digital e segurança pública.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2213

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *