Há pessoas a usar IA para planear assassinatos. O que podem fazer as empresas de IA? - Sem Enrolação

Há pessoas a usar IA para planear assassinatos. O que podem fazer as empresas de IA?

Há pessoas a usar IA para planear assassinatos. O que podem fazer as empresas de IA?

Continua após a publicidade


A OpenAI teve acesso antecipado a mensagens preocupantes trocadas com a autora do tiroteio de Tumbler Ridge, no Canadá, um ataque em que uma jovem matou várias pessoas numa escola antes de se suicidar. Apesar dos sinais considerados alarmantes internamente, a empresa optou apenas por encerrar a conta da utilizadora, sem alertar as autoridades.

assassinato chatgpt00

Continua após a publicidade


Um crime anunciado e uma decisão controversa

No passado dia 10 de fevereiro, uma jovem de 18 anos assassinou a tiro a mãe e o irmão. Depois dirigiu-se à sua escola e matou mais sete pessoas, acabando por se suicidar.

O inquietante é que a autora tinha falado sobre isso com o ChatGPT e a OpenAI teve a oportunidade de avisar a polícia, mas optou por não o fazer.

Alertas internos ignorados

Conta o Wall Street Journal que, em junho do ano passado, o sistema automático da OpenAI detetou várias mensagens enviadas por uma utilizadora ao ChatGPT nas quais descrevia cenários de violência armada.

Para alguns funcionários eram muito preocupantes, porque podiam acabar em violência real, pelo que se debateu internamente se deveriam avisar as autoridades canadianas. No final, encerraram-lhe a conta, mas não avisaram ninguém.

Agora, as autoridades canadianas convocaram a empresa para pedir explicações.

assassinato chatgpt01

Outros crimes planeados com ajuda da IA

O tiroteio de Tumbler Ridge não é o único caso em que a IA foi usada para planear um crime. No início de 2025, um homem estacionou um Cybertruck cheio de explosivos em frente a um hotel em Las Vegas com a intenção de o detonar, embora a única vítima tenha sido ele próprio. Dias antes, o autor tinha perguntado ao ChatGPT como o fazer.

Neste caso, o chatbot não detetou qualquer mensagem preocupante, mas isso soube-se porque a OpenAI pesquisou posteriormente as conversas.

Em Seul, uma mulher foi presa pelo alegado assassinato de duas pessoas por intoxicação com benzodiazepinas. A investigação revelou que a acusada tinha recorrido ao ChatGPT para saber qual era a dose perigosa e o que acontecia se fosse misturada com álcool. As mensagens, neste caso, não são tão alarmantes e poderiam surgir de uma dúvida genuína, mas constituem outro exemplo da utilização do ChatGPT na prática de um crime.

A IA como confessionário moderno

As inteligências artificiais transformaram-se numa espécie de confessionário ao qual contamos todo o tipo de segredos, até os mais obscuros. Há quem considere a IA um amigo, o seu psicólogo ou até o seu amante. Nesse sentido, não é estranho que alguém diga ao ChatGPT que vai matar a família ou que quer detonar um carro cheio de explosivos.

O preocupante, e onde deveríamos colocar o foco, é no que as empresas estão a fazer em relação a isso. Para já, parece não ser suficiente.

assassinato chatgpt02

A OpenAI, criadora do ChatGPT, afirmou na quinta-feira que a atiradora de um dos piores tiroteios em escolas da história do Canadá contornou a proibição do uso problemático do serviço ao criar uma segunda conta.

Entre o dever legal e a responsabilidade ética

Confessar a um psicólogo ou psiquiatra que se quer fazer mal a alguém é um dos motivos pelos quais não só pode, como deve, quebrar o sigilo profissional e alertar as autoridades. Contudo, por mais que utilizemos os chatbots como psicólogos, atualmente não existe qualquer lei que obrigue as empresas de IA a informar sobre este tipo de interações, sendo uma decisão interna. A obrigação, portanto, não é legal, mas ética.

Casos como o da atiradora de Tumbler Ridge não começaram a acontecer com a chegada dos chatbots de IA. A existência de instruções para fabricar bombas caseiras já há décadas preocupa as autoridades e, mesmo antes da popularização da internet, já circulavam manuais deste tipo. O mesmo acontece com os casos de suicídio.

Não é necessário perguntar ao ChatGPT, basta pesquisar no Google ou escrever num fórum.

Conversas mais profundas, riscos mais complexos

Em declarações ao New York Times, um antigo funcionário da OpenAI destaca um ponto importante. Com um chatbot não se faz apenas uma pesquisa simples, podendo manter-se uma conversa mais longa onde as intenções ficam mais claras.

Nesse sentido, pode ser mais fácil detetar casos como o da atiradora de Tumbler Ridge, mas também podem existir muitos falsos positivos, por exemplo utilizadores que estejam a escrever ficção ou a usar a IA em contextos de role-playing. Complicado.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2050

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *