Método "dos três dedos" promete detetar imagens manipuladas com IA, mas... - Sem Enrolação

Método “dos três dedos” promete detetar imagens manipuladas com IA, mas…

Método

Continua após a publicidade


Embora esteja a fazer furor nas redes sociais, o método “dos três dedos” já não funciona contra as imagens manipuladas com Inteligência Artificial (IA), os deepfakes.

tres dedos deepfake00 1 1

Continua após a publicidade



O método "dos três dedos" tornou-se popular nas redes sociais, com os utilizadores a partilharem que é uma forma eficaz de identificar deepfakes.

A ideia é simples: durante uma chamada online, por exemplo, pede-se à pessoa que levante três dedos à frente do rosto. Se a imagem se distorcer ou falhar de alguma forma, o vídeo é gerado por IA, segundo os utilizadores.

Esta técnica funcionava, pois os modelos tinham dificuldade em lidar com sobreposição de objetos em movimento, especialmente mãos próximas do rosto.

Por isso, quando a mão passava à frente do rosto, a IA podia gerar borrões, distorções ou irregularidades.

Tecnologia está mais sofisticada

Considerando a tecnologia de que dispomos hoje em dia, este método "dos três dedos" já não é fiável.

ia deepfake face hacker anonymous 1

Os modelos de deepfake em tempo real corrigem esses problemas e conseguem reproduzir movimentos das mãos com grande precisão, tornando o truque praticamente inútil como método de deteção.

Aliás, o cofundador e diretor-executivo da Reality Defender, uma empresa especializada em detetar deepfakes, explicou que o método era "uma forma quase infalível" de revelar uma troca de rosto ou um modelo deepfake há um ou dois anos.

Agora, os modelos de deepfake, especialmente os em tempo real, são tão bons que corrigem este "erro", e não falham nem revelam o utilizador verdadeiro com o truque "dos três dedos".

Disse Ben Colman à Cybernews.

O aumento exponencial de burlas alimentadas por IA reflete o quão avançada se tornou a tecnologia de clonagem de voz, troca de rosto e alterações digitais.

Um inquérito a mais de 12.000 consumidores nos Estados Unidos, Canadá, Reino Unido, Espanha, França e Alemanha revelou que 31% receberam uma chamada com voz deepfake nos últimos 12 meses.

Em 2025, as perdas relacionadas com deepfakes devido a fraudes e burlas atingiram 1,1 mil milhões de dólares, contra 360 milhões em 2024, segundo análise da Surfshark.

Hoje em dia, as redes sociais são um dos principais canais de burlas com deepfakes, onde burlões usam a tecnologia para se fazer passar por pessoas famosas e promover oportunidades de investimento fraudulentas ou para fingir uma relação que culmina em pedidos de dinheiro sob um pretexto de emergência.

Então, como detetar deepfakes?

Segundo os especialistas, há métodos além do "dos três dedos" para determinar se a pessoa com quem se está a falar é real.

O cofundador e diretor-executivo da ImpersonAlly, uma empresa de cibersegurança focada em eliminar fraudes por personificação, disse que pedir a alguém para virar a cabeça 90 graus pode fazer a IA perder os dados de treino e começar a "alucinar".

A sustentar o conselho de Shlomi Beer está o facto de os modelos deepfake serem treinados com conjuntos de vídeos frontais.

É provável que veja a linha da mandíbula "borrada" ou outros artefactos no rosto por uma fração de segundo, enquanto o modelo do outro lado tenta adivinhar como é o lado do rosto.

Explicou Beer, acrescentando que pode pedir a alguém para acenar rapidamente a mão entre o rosto e uma fonte de luz, como uma lâmpada de secretária, pois "deepfakes em tempo real têm dificuldade em renderizar naturalmente uma sombra móvel sobre um rosto gerado". A sombra normalmente parece plana, tremelica ou não se alinha com a pele.

Por fim, como os deepfakes têm dificuldade em lidar com fundos complexos, como estantes de livros ou plantas, pode pedir à pessoa para olhar para algo atrás de si, por exemplo, um livro numa estante.

videochamada02 1

Segundo Beer, movimentos súbitos contra um fundo complexo podem causar artefactos nas bordas, fazendo com que o cabelo e o pescoço pareçam desconectados do corpo.

Entretanto, o diretor-executivo e fundador da OpenOrigins, uma plataforma de software para verificação de media digitais, considera que já não existe um método visual fiável para reconhecer deepfakes.

Afinal, a precisão da deteção caiu ao ponto de mesmo especialistas treinados não conseguirem identificar consistentemente deepfakes de alta qualidade.

Assim sendo, "o que se pode fazer é procurar sinais indiretos: latência inesperada na resposta do vídeo, movimentos oculares não naturais, iluminação que não corresponde ao ambiente e áudio ligeiramente fora de sincronização", segundo Manny Ahmed.

De ressalvar, contudo, que "são pistas, não provas".

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2127

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *