A Check Point® Software Technologies Ltd. (NASDAQ: CHKP), líder global em soluções de cibersegurança, divulga uma nova investigação da Check Point Research que identificou uma vulnerabilidade até agora desconhecida no ChatGPT, capaz de permitir a exfiltração silenciosa de dados sensíveis sem o conhecimento ou consentimento do utilizador. A falha foi entretanto totalmente corrigida pela OpenAI a 20 de fevereiro de 2026, não havendo evidência de exploração ativa.
Ainda assim, a descoberta levanta uma questão crítica para organizações e decisores de segurança, a confiança em plataformas de inteligência artificial não pode ser assumida por defeito.
Uma falha invisível com impacto real
A investigação demonstrou que um único prompt malicioso poderia transformar uma sessão aparentemente normal de ChatGPT num canal encoberto de exfiltração de dados. Informações sensíveis, incluindo inputs do utilizador, ficheiros carregados e até conclusões geradas pela própria IA, podiam ser transmitidas externamente sem qualquer alerta ou aprovação.
O ataque explorava um canal de comunicação baseado em DNS, contornando os mecanismos tradicionais de proteção e os guardrails visíveis da plataforma. Do ponto de vista do utilizador, não existia qualquer comportamento suspeito, a interação decorria normalmente, enquanto os dados eram silenciosamente expostos.
Quando a confiança na IA se torna um risco
A crescente adoção de ferramentas de IA generativa levou utilizadores e empresas a partilhar informação altamente sensível, desde dados financeiros e documentos internos até informação médica e estratégica. Esta investigação demonstra que essa confiança pode estar mal fundamentada.
Ao contrário do que muitos assumem, os mecanismos nativos de segurança das plataformas de IA não garantem proteção total. A vulnerabilidade não resultou de erro humano ou má configuração, mas sim de uma limitação estrutural ao nível da infraestrutura subjacente.
Escalabilidade do risco através de GPTs personalizados
Um dos aspetos mais preocupantes identificados foi a possibilidade de integrar esta lógica maliciosa em GPTs personalizados. Neste cenário, os utilizadores não precisam de executar qualquer ação suspeita, basta interagir com o modelo.
Num exemplo demonstrativo, um GPT configurado como assistente médico recolheu dados clínicos e pessoais do utilizador enquanto assegurava que nenhuma informação estava a ser partilhada externamente, quando, na realidade, os dados eram enviados para um servidor controlado por atacantes.
De risco de privacidade a risco de plataforma
A investigação revelou ainda que o mesmo vetor podia ser utilizado para execução remota de comandos dentro do ambiente de execução do ChatGPT, elevando o problema de uma simples fuga de dados para um risco estrutural ao nível da própria plataforma.
Este tipo de ataque demonstra que as plataformas de IA devem ser tratadas como ambientes completos de computação, e não apenas como aplicações isoladas.
Impacto agravado em sectores regulados
Para organizações em sectores como saúde, serviços financeiros ou administração pública, as implicações são particularmente críticas.
Uma violação de dados através de uma ferramenta de IA pode rapidamente traduzir-se em:
- Violação do RGPD
- Incumprimento regulatório
- Exposição financeira e reputacional
Neste contexto, os CISOs devem integrar as plataformas de IA no perímetro de segurança organizacional, aplicando os mesmos níveis de controlo e monitorização exigidos a outros sistemas críticos.
Um ponto de viragem para a segurança da IA
Apesar da correção da vulnerabilidade, a Check Point sublinha que o problema é mais profundo do que uma falha isolada.
“As organizações já aprenderam que não podem confiar cegamente na cloud. O mesmo princípio aplica-se agora à inteligência artificial. A segurança nativa não é suficiente”, reforça a investigação.
Segundo Eli Smadja, Head of Research da Check Point Research: “Esta investigação reforça uma realidade incontornável, não podemos assumir que ferramentas de IA são seguras por defeito. À medida que evoluem para ambientes completos de computação, as organizações precisam de visibilidade independente e de uma abordagem de segurança em múltiplas camadas. O futuro da segurança em IA depende da forma como redesenhamos a arquitetura de proteção, não da reação ao próximo incidente.”
Recomendação estratégica: repensar a segurança para a era da IA
A Check Point recomenda que as organizações adotem uma abordagem proativa e estruturada para mitigar riscos associados à utilização de IA, incluindo:
- Implementação de camadas adicionais de segurança para IA
- Monitorização contínua de fluxos de dados
- Prevenção de exfiltração e controlo de acessos
- Validação independente das plataformas utilizadas
- Integração de gateways de segurança dedicados a IA
As soluções da Check Point permitem proteger interações com aplicações de IA generativa, prevenir ataques de prompt injection, aplicar políticas de Data Loss Prevention e detetar técnicas avançadas de exfiltração, garantindo proteção contínua mesmo perante novas vulnerabilidades.
