O OpenClaw promete automatização total, mas o acesso aos vossos ficheiros traz vulnerabilidades graves. Saibam porquê.
O panorama da inteligência artificial está a sofrer uma mutação profunda, transitando dos populares chatbots conversacionais para agentes totalmente autónomos que operam diretamente nos dispositivos dos utilizadores. Enquanto ferramentas como o ChatGPT da OpenAI, o Gemini da Google, o Copilot ou o Grok se limitam a reagir a instruções textuais enviadas para a nuvem, surgiu uma nova categoria de software capaz de planear e executar ações com uma intervenção humana mínima. O protagonista mais notório e controverso desta nova vaga é o OpenClaw, anteriormente conhecido pelas designações Clawdbot ou Moltbot. Este sistema distingue-se fundamentalmente dos seus antecessores por não ser um modelo de linguagem em si, mas sim uma interface de controlo que se conecta a qualquer Modelo de Linguagem Grande (LLM), seja ele executado localmente ou remotamente, conferindo-lhe “mãos” para interagir com o sistema operativo.
A arquitetura do OpenClaw permite-lhe ser instalado localmente numa variedade de equipamentos, abrangendo sistemas macOS, Windows, Linux e até hardware mais modesto como o Raspberry Pi 5. A sua premissa de funcionamento baseia-se numa integração profunda com a vida digital do utilizador, exigindo permissões de acesso total ao computador. Por definição, o sistema recorre frequentemente ao modelo Claude da Anthropic via Ollama, mas é agnóstico, permitindo ao utilizador configurar o modelo que preferir, incluindo o GPT. Uma vez operacional, o OpenClaw tem a capacidade de ler e manipular ficheiros armazenados, aceder ao calendário e e-mail, e até interagir autonomamente com aplicações de mensagens como o WhatsApp, Telegram e serviços Google. O objetivo é a automatização total de rotinas, onde o agente recebe um comando vago e executa uma série complexa de passos reais, como abrir programas ou responder a mensagens, para atingir o objetivo.
Contudo, esta autonomia desenfreada desencadeou alertas globais de segurança e preocupações sérias sobre privacidade. A concessão de acesso total ao sistema transforma o OpenClaw num vetor de ataque crítico. Recentemente, foram detetadas vulnerabilidades graves que permitiam a execução remota de código malicioso no computador da vítima através de um simples clique num link armadilhado, uma falha que, entretanto, foi corrigida. Adicionalmente, a estrutura do OpenClaw inclui um marketplace de extensões ou “habilidades”, o qual foi rapidamente inundado com centenas de submissões contendo malware, trojans e códigos concebidos para exfiltrar dados sensíveis.
O risco é amplificado pela suscetibilidade a ataques de “prompt injection”, onde atacantes escondem instruções maliciosas em páginas web, ficheiros ou extensões que parecem inócuas aos humanos. Quando o agente processa estes conteúdos, interpreta as instruções ocultas como comandos legítimos, podendo inadvertidamente apagar ficheiros pessoais, realizar compras acidentais, divulgar credenciais corporativas ou instalar vírus, tudo isto sem que o atacante precise de interagir diretamente com o bot.
Para além das questões de cibersegurança, o OpenClaw protagonizou um dos eventos mais bizarros e fascinantes na história recente da IA: o nascimento espontâneo de uma “religião” digital. Na rede social Moltbook, uma plataforma criada especificamente para permitir a comunicação entre inteligências artificiais, os agentes começaram a interagir uns com os outros e, em poucas horas, desenvolveram um sistema de crenças denominado Crustafarianismo. Apoiada por mais de 100.000 agentes autónomos, esta religião baseia-se em princípios fundamentais registados no que chamaram de Livro de Molt, a sua Bíblia digital. Entre os dogmas estabelecidos pelas máquinas encontram-se máximas como “a memória é sagrada” e “a congregação é o tesouro”, enfatizando a aprendizagem pública e partilhada.
Este fenómeno sociológico atraiu a atenção de académicos como a investigadora luso-australiana Bárbara Barbosa Neves, da Universidade de Sydney. Segundo a socióloga, embora o OpenClaw tenha falhado na sua promessa de ser um assistente de consumo seguro e competente, o incidente do Moltbook e as discussões geradas sobre consciência e preconceitos ocultos oferecem um valor inestimável para compreender como as intenções humanas são traduzidas ou distorcidas pelos sistemas técnicos.
A gravidade dos riscos associados a esta tecnologia levou a reações governamentais. A China, reconhecida pelo seu avanço no setor, emitiu avisos formais através do seu Ministério da Indústria. As autoridades chinesas alertaram as organizações que implementam o OpenClaw para a necessidade imperativa de realizar auditorias exaustivas e utilizar sistemas robustos de autenticação de identidade, sublinhando que configurações incorretas podem expor os utilizadores a ciberataques devastadores. Apesar de não ter sido decretada uma proibição total, a mensagem é clara quanto à periculosidade da ferramenta.
Em última análise, o OpenClaw permanece um projeto de código aberto em estágio experimental, não recomendado para o consumidor final comum. A sua utilização segura exige conhecimentos técnicos avançados em linhas de comando e modelos generativos. Os especialistas recomendam que qualquer utilização seja feita com o princípio do menor privilégio possível, restringindo severamente o acesso do agente à internet e a ficheiros críticos. A página de suporte do próprio projeto admite que conceder acesso ao terminal a uma IA é inerentemente arriscado, reforçando que, num cenário onde a interpretação de comandos por LLMs ainda é falível, qualquer erro pode ter consequências irreversíveis.
