usou imagens delas para criar material sexual infantil - Sem Enrolação

usou imagens delas para criar material sexual infantil

usou imagens delas para criar material sexual infantil

Continua após a publicidade


A xAI de Elon Musk está a ser processada por um grupo de adolescentes, que alega que o Grok produziu e distribuiu imagens sexualizadas geradas por Inteligência Artificial (IA) sem o seu conhecimento. Duas das três jovens são menores de idade.

Grok de Elon Musk

Continua após a publicidade



Um grupo de três adolescentes, duas das quais menores de idade, interpôs uma ação judicial contra a empresa de IA de Elon Musk, xAI, sustentando que o gerador de imagens do Grok utilizou fotografias delas para produzir e distribuir material de abuso sexual infantil.

Segundo o The Guardian, a ação coletiva é a primeira movida por menores na sequência da geração desenfreada de imagens de nudez não consentidas pelo Grok, uma polémica que ganhou força no início deste ano.

Adolescentes alegam danos à sua reputação e saúde mental

Movida por três adolescentes do Tennessee, mas apresentada na Califórnia, onde a xAI tem a sua sede, a ação detalha como as raparigas descobriram que imagens suas, nas quais aparecem nuas por intervenção de IA, foram carregadas num servidor Discord e partilhadas online sem o seu conhecimento.

A xAI optou por lucrar com a agressão sexual de pessoas reais, incluindo crianças, apesar de saber perfeitamente as consequências de criar um produto tão perigoso.

Afirmou Vanessa Baehr-Jones, advogada das queixosas, num comunicado.

pornografia01

Após terem alertado as autoridades para as imagens, de acordo com a queixa, a polícia deteve um suspeito no final desse mês e encontrou material de abuso sexual infantil no seu telemóvel, que teria sido produzido utilizando a tecnologia de geração de imagens e vídeos da xAI.

Conforme reportado primeiro pelo The Washington Post, a ação alega que o material de abuso sexual infantil foi criado utilizando uma aplicação de terceiros que licenciou e se baseou na IA do Grok para produzir o material.

Na queixa, apresentada na segunda-feira, os advogados das queixosas adolescentes contam que uma das raparigas, referida como Jane Doe 1, recebeu uma mensagem no Instagram em dezembro de um utilizador anónimo, que a alertou de que alguém do seu círculo social tinha carregado uma série de vídeos e imagens deepfake num servidor Discord que a retratavam a ela e a outras raparigas da sua escola secundária nuas e em posições sexualizadas.

Jane Doe reparou que três das fotos pareciam ser imagens alteradas por IA a partir de fotografias tiradas enquanto era menor, incluindo uma da festa de boas-vindas da sua escola.

Mais tarde, investigadores criminais descobriram que as imagens tinham sido partilhadas na aplicação de mensagens Telegram, de acordo com a queixa, onde estavam alegadamente a ser usadas como moeda de troca por outro material de abuso sexual infantil.

As imagens mostravam todo o seu corpo, incluindo os órgãos genitais, sem qualquer roupa. O vídeo mostrava-a a despir-se até ficar completamente nua.

Lê-se na queixa, conforme citado pelo The Guardian.

Discord 2

Embora o Discord procure evitá-lo, através de regras específicas, a plataforma já foi usada para partilha de material de abuso sexual infantil, devido à sua estrutura e características técnicas, uma vez que permite a criação de servidores privados e o envio de arquivos, oferecendo anonimato relativo. Esta construção permite que criminosos partilhem material de abuso sexual infantil longe da moderação.

Entretanto, em fevereiro, as outras queixosas no processo descobriram que material semelhante de abuso sexual infantil com a sua participação também tinha sido gerado através de IA e partilhado online, com o processo a pedir uma indemnização contra a xAI pelos danos à reputação e à saúde mental resultantes das imagens.

Embora a queixa alegue que as imagens foram criadas utilizando uma aplicação de terceiros que acede à tecnologia do Grok, em vez de diretamente no site do X ou na aplicação do Grok, a queixa argumenta que esta utilização continua a requerer os servidores da xAI e que a xAI lucra com o licenciamento da sua tecnologia a estas aplicações.

Os advogados das queixosas acusam a xAI de transferir a responsabilidade através da sua estrutura de licenciamento e da falta de supervisão.

Musk negou que Grok pudesse gerar imagens sexualizadas de menores

Esta ação judicial junta-se a várias outras ações judiciais e investigações internacionais contra a xAI relativamente à criação e divulgação de imagens sexualizadas não consensuais, incluindo uma ação movida pela mãe de um dos filhos de Elon Musk e um inquérito formal da União Europeia.

Anteriormente, investigadores do Center for Countering Digital Hate calcularam que o Grok tinha criado cerca de três milhões de imagens sexualizadas em menos de duas semanas, das quais cerca de 23.000 retratavam crianças.

Em janeiro, Musk negou que o Grok tivesse sido utilizado para produzir material de abuso sexual infantil, alegando que "não tinha conhecimento de quaisquer imagens de menores nus geradas pelo Grok. Literalmente zero".

Além disso, garantiu que o Grok não geraria quaisquer imagens ilegais e que o seu princípio de funcionamento consistia em respeitar as leis locais.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2094

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *