
Continua após a publicidade
A IA e os seus chatbots são criados para ajudar os utilizadores e dar-lhes as respostas necessárias. No entanto, isso abre a porta a comportamentos que podem desvirtuar o seu funcionamento. Foi o que aconetceu ao Gemini, que foi atacado mais de 100 mil prompts para tentar clonar a IA da Google.

Continua após a publicidade
100 mil prompts para tentar clonar Gemini
A Google afirma que o seu principal chatbot de inteligência artificial, o Gemini, foi inundado por agentes "comercialmente motivados" que tentam cloná-lo, enviando-lhe questões repetidamente, por vezes com milhares de perguntas diferentes — incluindo uma campanha que enviou questões ao Gemini mais de 100 mil vezes.
Num relatório publicado, a Google afirmou que tem sofrido cada vez mais "ataques de destilação", ou seja, perguntas repetidas elaboradas para levar um chatbot a revelar o seu funcionamento interno. Descreveu a atividade como "extração de modelo", na qual os potenciais imitadores sondam o sistema em busca dos padrões e da lógica que o fazem funcionar. Os atacantes parecem querer usar a informação para construir ou melhorar a sua própria inteligência artificial.
A empresa acredita que os culpados são, na sua maioria, empresas privadas ou investigadores que procuram obter vantagem competitiva. Um porta-voz disse à NBC News que a Google acredita que os ataques vieram de todo o mundo, mas recusou-se a partilhar detalhes adicionais sobre o que se sabe sobre os suspeitos.

Ataques são muito normais à IA da Google
O alcance dos ataques ao Gemini indica que são provavelmente, ou em breve serão, comuns também contra ferramentas de IA personalizadas de empresas mais pequenas, afirmou John Hultquist, analista-chefe do Grupo de Inteligência de Ameaças da Google. As empresas tecnológicas gastaram milhares de milhões de dólares na corrida para desenvolver os seus chatbots de IA, ou grandes modelos de linguagem,.
Consideram o funcionamento interno dos seus melhores modelos como informação proprietária extremamente valiosa. Embora possuam mecanismos para tentar identificar ataques de destilação e bloquear os responsáveis, as principais plataformas de data mining são inerentemente vulneráveis à destilação porque estão abertas a qualquer pessoa na internet.
Segundo a Google, muitos dos ataques foram desenhados para explorar os algoritmos que ajudam o Gemini a "raciocinar", ou seja, a decidir como processar a informação. Hultquist afirmou que, à medida que mais empresas desenvolvem os seus próprios modelos de aprendizagem automática personalizados, treinados com dados potencialmente sensíveis, tornam-se vulneráveis a ataques semelhantes.
Saiba mais sobre Inteligência Artificial
Publicidade






