Um investigador de segurança digital demonstra como o sistema de inteligência artificial Gemini pode ser manipulado por instruções invisíveis, mas a Google recusa-se a classificar o caso como falha de segurança.
Viktor Markopoulos, um investigador de segurança digital, identificou uma vulnerabilidade no Gemini, o sistema de inteligência artificial da Google, que permite a execução de comandos ocultos em texto aparentemente inofensivo. A empresa, no entanto, rejeita tratá-la como uma falha técnica, classificando-a apenas como um caso de “engenharia social”.
A técnica demonstrada, conhecida como ASCII smuggling, consiste em inserir instruções disfarçadas em partes invisíveis de um texto, por exemplo, alterando o tamanho da fonte ou o formato do código, que passam despercebidas ao utilizador, mas são interpretadas e executadas pela IA.
De acordo com Markopoulos, o impacto potencial é significativo, pois um simples comando oculto pode levar o sistema a aceder a dados privados, listas de contactos ou informações confidenciais, sem o conhecimento do utilizador. O risco aumenta com a integração do Gemini no Google Workspace, que lhe concede acesso a uma vasta gama de dados pessoais e corporativos.
Nos testes realizados, o investigador verificou que modelos como Gemini, DeepSeek e Grok apresentavam o mesmo tipo de vulnerabilidade, enquanto Claude, ChatGPT e Copilot se mostraram imunes, evidenciando que existem medidas de proteção possíveis de implementar.
Após reportar o problema à Google, Markopoulos forneceu exemplos práticos, incluindo um caso em que o Gemini foi induzido a recomendar um site malicioso para compra de um telefone. Limitada na sua resposta, a Google afirmou não considerar o incidente uma falha de segurança, responsabilizando o utilizador pela deteção desse tipo de manipulação.
A posição da empresa levanta dúvidas sobre a forma como a Google encara a segurança dos sistemas de IA, sobretudo quando estes estão integrados em produtos que lidam com dados sensíveis.