A Check Point® Software Technologies Ltd. (NASDAQ: CHKP), líder global em soluções de cibersegurança, através da sua equipa Check Point Research, identificou vulnerabilidades críticas no Claude Code, uma das ferramentas de desenvolvimento assistido por Inteligência Artificial mais utilizadas no mundo empresarial. As falhas, identificadas como CVE,2025,59536 e CVE,2026,21852, permitiam execução remota de código e potencial exposição de chaves API através de ficheiros de configuração incluídos em repositórios de código
O Claude Code, amplamente adoptado por equipas de desenvolvimento e integrado em fluxos de trabalho empresariais, tornou,se uma camada estrutural na cadeia de desenvolvimento de software. A investigação da Check Point demonstra que, neste novo contexto, a simples abertura de um projecto poderia, em determinados cenários, transformar,se num vector de ataque.
Quando a configuração passa a ser execução
Tradicionalmente, ficheiros de configuração em repositórios eram considerados metadados operacionais. No entanto, a investigação revelou que mecanismos internos concebidos para automatizar tarefas e facilitar a colaboração podiam ser abusados para executar comandos sem o conhecimento explícito do utilizador.
Em cenários específicos, bastaria clonar e abrir um repositório malicioso para:
- Acionar comandos ocultos no endpoint do programador
- Contornar mecanismos de consentimento e confiança
- Redireccionar tráfego autenticado da API
- Expor chaves API activas antes da confirmação de confiança
Este comportamento altera de forma estrutural o modelo de ameaça associado às ferramentas de desenvolvimento com IA. O risco deixa de estar limitado à execução de código não confiável e passa a incluir a simples abertura de projectos não verificados.
Três vectores de risco identificados
- Execução silenciosa de comandos
O Claude Code integra funcionalidades de automação que permitem executar acções predefinidas no arranque de uma sessão. A Check Point Research demonstrou que este mecanismo poderia ser explorado para executar comandos arbitrários automaticamente, sem qualquer interacção adicional além da abertura do projecto.
- Bypass de consentimento do utilizador, CVE,2025,59536
A integração com ferramentas externas através do Model Context Protocol, MCP, foi concebida para exigir aprovação explícita do utilizador. Contudo, configurações controladas pelo próprio repositório podiam, em determinadas circunstâncias, sobrepor-se a esses controlos, permitindo execução antes da confirmação de confiança.
- Exposição de chaves API, CVE,2026,21852
A investigação demonstrou que o tráfego autenticado do Claude Code podia ser redireccionado para um servidor sob controlo do atacante antes da validação de confiança do projecto. Isso permitiria a exfiltração de chaves API activas e a sua utilização indevida.
Em ambientes colaborativos, onde múltiplas chaves partilham acesso a workspaces na cloud, o impacto poderia escalar de um único endpoint comprometido para um risco alargado ao nível organizacional.
Uma mudança estrutural na cadeia de fornecimento de software
Estas vulnerabilidades evidenciam uma transformação profunda na cadeia de desenvolvimento moderno. À medida que as ferramentas com IA passam a executar comandos, inicializar integrações externas e iniciar comunicações de rede de forma autónoma, os ficheiros de configuração deixam de ser elementos passivos e tornam-se parte activa da camada de execução.
O desafio para as organizações não é apenas proteger o código, mas compreender que as camadas de automação que rodeiam o código também fazem parte da superfície de ataque.
“O nosso estudo evidencia uma mudança estrutural na forma como devemos encarar o risco na era da Inteligência Artificial. As ferramentas de desenvolvimento com IA já não são apenas assistentes de produtividade, tornaram,se componentes de infraestrutura integrados no núcleo dos fluxos de trabalho empresariais. Quando a automação ganha capacidade de execução, as fronteiras de confiança alteram,se e o modelo de segurança tem de evoluir ao mesmo ritmo”, afirma Oded Vanunu, Head of Product Vulnerability Research da Check Point.
Divulgação responsável e mitigação
A Check Point Research trabalhou em estreita colaboração com a Anthropic durante todo o processo de divulgação responsável. As vulnerabilidades identificadas foram corrigidas antes da sua divulgação pública, incluindo o reforço dos mecanismos de confirmação de confiança, a prevenção de execução de ferramentas externas antes de aprovação explícita e o bloqueio de comunicações API até validação do projecto.
Implicações para a estratégia de cibersegurança
A adopção acelerada de ferramentas de desenvolvimento baseadas em IA exige uma reavaliação dos pressupostos tradicionais de segurança. As organizações devem:
- Tratar ficheiros de configuração como potenciais elementos executáveis
- Reforçar controlos de validação de projectos antes da inicialização de ambientes
- Monitorizar tráfego autenticado associado a ferramentas de IA
- Integrar políticas de Zero Trust também nas camadas de automação
Num cenário em que a IA se integra profundamente na cadeia de desenvolvimento, a segurança deve acompanhar esta transformação estrutural, garantindo visibilidade, controlo e governação adequados sobre novas superfícies de ataque.
A Check Point continuará a investir em investigação avançada para antecipar riscos emergentes associados à Inteligência Artificial e proteger organizações numa nova era digital onde a automação inteligente redefine os limites da confiança.
