Uso de IA sem controle já gera risco de vazamento

IA

O uso de inteligência artificial generativa em ambientes corporativos já apresenta riscos concretos de segurança, com registros recentes de vazamento de dados e exploração de falhas em ferramentas amplamente adotadas pelo mercado. Segundo a LC SEC, empresa especializada em cibersegurança e governança, o cenário exige uma mudança de abordagem: a IA passa a ser tratada como uma nova superfície de ataque dentro das organizações.

Casos recentes envolvendo soluções como Claude Code e Gemini ajudam a dimensionar o problema. Em testes, o Claude Code apresentou vulnerabilidades que permitiam execução remota de comandos e roubo de chaves de API por meio de arquivos de projeto manipulados. Já no Gemini, um bypass explorado via convite de calendário possibilitou acesso a dados privados — falha posteriormente corrigida pelo Google.

O vetor desses ataques está no chamado prompt malicioso, técnica que manipula comandos enviados à IA para induzir respostas indevidas ou acesso a informações sensíveis. O risco deixou de ser teórico: entre janeiro e fevereiro de 2026, uma em cada 31 interações com IA generativa em redes corporativas apresentou alto potencial de vazamento de dados, de acordo com a Check Point.

Esse avanço ocorre em paralelo à rápida adoção da tecnologia nas empresas. Dados do relatório Generative AI 2025, da Netskope, indicam que 90% das organizações já possuem usuários acessando aplicações de IA generativa diretamente, enquanto 98% utilizam ferramentas com recursos de IA. O volume de dados enviados a esses sistemas cresceu mais de 30 vezes em um ano, ampliando a exposição de informações críticas.

Apesar da expansão, a governança ainda não acompanha o ritmo. Segundo o Cisco 2026 Data and Privacy Benchmark, apenas 12% das organizações contam com estruturas maduras e proativas de governança de IA. Já levantamento da Trend Micro aponta que 67% das empresas sofreram pressão para liberar o uso da tecnologia mesmo com preocupações de segurança, enquanto apenas 38% possuem políticas estruturadas.

Para Luiz Claudio, CEO e fundador da LC SEC, esse descompasso é o principal fator de risco. “A ferramenta entra por demanda do negócio, mas os controles ficam para depois. É nesse intervalo que surgem os incidentes”.

O tema também já foi incorporado a frameworks internacionais de segurança. A OWASP classifica o prompt injection como o principal risco em aplicações com modelos generativos. Já o NIST alerta que ataques diretos e indiretos podem resultar em exfiltração de dados e até execução remota de código, especialmente quando a IA está integrada a sistemas como e-mails, repositórios e calendários.

Na prática, falhas de governança podem levar à exposição de credenciais, acesso indevido a arquivos internos e vazamento de dados pessoais, com impacto direto em regulações como a LGPD, além de riscos contratuais e reputacionais. Outro ponto crítico está na tomada de decisão baseada em conteúdo manipulado, o que amplia o risco operacional.

Diante desse cenário, a LC SEC defende a adoção de uma abordagem estruturada para o uso de IA generativa, incluindo inventário de aplicações, classificação de dados, revisão de acessos, testes de exposição e monitoramento contínuo. A empresa também destaca a importância de políticas claras de uso e alinhamento a normas como ISO 27001 e ISO 42001.

Para o executivo, o momento exige uma mudança de mentalidade. “A IA já está dentro das empresas e conectada a dados críticos. A diferença entre ganho de produtividade e vazamento de informação está nos controles. Sem isso, qualquer prompt pode se tornar uma porta de entrada para um incidente”, diz.

Compartilhe: