Skip to main content
Back to all articles
CybersecurityIAPrivacidade

IA e Privacidade de Dados: O Que Você Precisa Saber Sobre os Riscos

IA e Privacidade de Dados: O Que Você Precisa Saber Sobre os Riscos

A IA generativa, incluindo plataformas como ChatGPT, DALL-E, Google Gemini e Apple Intelligence, revolucionou nosso relacionamento com a tecnologia. Talvez essas ferramentas tenham mudado completamente a maneira como você trabalha e interage com a internet.

Existem inúmeras maneiras de usar essas plataformas, muitas das quais são chamadas de modelos de linguagem grande, ou LLMs. Esses chatbots podem ajudar no brainstorming, na escrita e até na codificação. Mas também podem representar riscos significativos se usados de forma descuidada.

Uma das maiores preocupações? Funcionários exporem inadvertidamente informações sensíveis da empresa. Como CISO da IONIC Health e CEO da NESS, vejo diariamente casos onde o uso descuidado de IA coloca dados em risco.

O Problema Real

Os modelos de IA processam e armazenam dados de maneira diferente do software tradicional. As plataformas públicas de IA geralmente retêm dados inseridos para fins de treinamento, o que significa que qualquer coisa que você compartilhe pode ser usada para refinar respostas futuras. Ou pior, ser exposta involuntariamente a outros usuários.

Pense nisso: quando você cola um trecho de código no ChatGPT, quando você compartilha uma estratégia de negócio, quando você descreve um problema interno da empresa, esses dados podem ser armazenados e usados para treinar o modelo. E uma vez que os dados estão lá, você perdeu controle sobre eles.

Os Riscos Principais

Há dois riscos principais ao inserir dados sensíveis em plataformas públicas de IA.

Primeiro, a exposição de dados privados da empresa. Dados proprietários, como detalhes de projetos, estratégias, código de software e pesquisas não publicadas, podem ser retidos e influenciar saídas futuras da IA. Isso significa que informações confidenciais podem acabar sendo reveladas em respostas para outros usuários.

Segundo, informações confidenciais de clientes. Dados pessoais ou registros de clientes jamais devem ser inseridos, pois isso pode levar a violações de privacidade e repercussões legais. No setor de saúde, onde a IONIC Health atua, isso é especialmente crítico devido a regulamentações como HIPAA e LGPD.

Muitas plataformas de IA permitem que você desative o uso do que você insere para dados de treinamento, mas não deve confiar nisso como uma solução definitiva. Pense nas plataformas de IA como mídias sociais: se você não publicaria, não insira na IA.

Verifique Antes de Usar IA no Trabalho

Antes de integrar ferramentas de IA em seu fluxo de trabalho, siga estas etapas críticas.

Revise as políticas de IA da empresa. Muitas organizações agora têm políticas que regem o uso da IA. Verifique se a sua empresa permite que os funcionários usem IA e em que condições. Se não há política, isso é um sinal de alerta. A empresa precisa definir regras claras.

Veja se sua empresa possui uma plataforma privada de IA. Muitas empresas, especialmente grandes corporações, agora têm ferramentas internas de IA que oferecem maior segurança e impedem que os dados sejam compartilhados com serviços de terceiros. Se sua empresa tem isso, use. Se não tem, considere sugerir.

Entenda as políticas de retenção de dados e privacidade. Se você usar plataformas públicas de IA, revise seus termos de serviço para entender como seus dados são armazenados e usados. Especificamente, analise suas políticas de retenção de dados e uso de dados. Não é divertido ler termos de serviço, mas é necessário.

Como Proteger Seus Dados ao Usar IA

Se você vai usar IA, use-a com segurança. Aqui estão práticas que realmente funcionam.

Mantenha-se em ferramentas de IA seguras e aprovadas pela empresa no trabalho. Se a sua organização oferece uma solução interna de IA, use-a em vez de alternativas públicas. Se o seu local de trabalho ainda não estiver lá, consulte seu supervisor sobre o que você deve fazer. Não assuma que está tudo bem só porque todo mundo faz.

Pense antes de clicar. Trate as interações com IA como fóruns públicos. Não insira informações em um chatbot se você não as compartilharia em um comunicado de imprensa ou as publicaria nas redes sociais. É uma regra simples, mas efetiva.

Use entradas vagas ou genéricas. Em vez de inserir informações confidenciais, use perguntas gerais e não específicas como seu prompt. Por exemplo, em vez de colar código real da sua aplicação, descreva o problema de forma genérica. Em vez de compartilhar dados reais de clientes, use exemplos fictícios.

Proteja sua conta de IA com senhas fortes e MFA. Proteja suas contas de IA como todas as outras: use uma senha exclusiva, complexa e longa, pelo menos 16 caracteres. Habilite autenticação multi-fator, que adicionará outra sólida camada de proteção. Contas de IA comprometidas podem expor todo o histórico de conversas.

Casos Reais que Vi

Deixe-me compartilhar alguns casos reais que vi, anonimizados, para ilustrar os riscos.

Um desenvolvedor colou código fonte completo de uma aplicação crítica no ChatGPT para pedir ajuda com um bug. O código continha credenciais hardcoded e lógica de negócio proprietária. Meses depois, informações similares apareceram em respostas do ChatGPT para outros usuários. Não podemos provar que foi daquele código, mas a coincidência é suspeita.

Uma equipe de marketing usou ChatGPT para gerar conteúdo, compartilhando estratégias de lançamento de produto, público-alvo, e até mesmo informações sobre concorrentes. Quando o produto foi lançado, um concorrente tinha informações demais sobre a estratégia. Novamente, não podemos provar, mas o timing é suspeito.

Um profissional de RH usou ChatGPT para revisar políticas internas, compartilhando detalhes sobre estrutura salarial, benefícios, e processos de contratação. Informações que deveriam ser confidenciais foram inseridas em uma plataforma pública.

Esses casos mostram que o risco é real, não teórico.

Aumente Seu QI em IA

IA Generativa é poderosa. Mas você é sábio. Use a IA de forma inteligente, especialmente quando estão envolvidos dados sensíveis.

Ao ser cuidadoso com o que você compartilha, seguir as políticas da empresa e priorizar a segurança, você pode se beneficiar da IA sem colocar sua empresa em risco. A IA é uma ferramenta incrível, mas como qualquer ferramenta poderosa, precisa ser usada com sabedoria e cuidado.

Lembre-se: quando se trata de dados sensíveis, quando em dúvida, não compartilhe. É melhor ser cauteloso e proteger informações confidenciais do que descobrir depois que elas foram expostas.

Reflexão Final

Como profissional de segurança, vejo a IA como uma ferramenta dupla. Por um lado, ela pode aumentar produtividade e eficiência de formas incríveis. Por outro, ela introduz novos vetores de risco que precisamos entender e gerenciar.

A chave é equilibrar os benefícios com os riscos. Use IA, mas use com consciência. Aproveite o poder da tecnologia, mas proteja os dados que são confiados a você.

E se você é responsável por políticas em uma organização, não espere. Crie políticas claras sobre uso de IA agora. Treine sua equipe. Forneça ferramentas seguras. O custo de não fazer isso pode ser muito alto.


Quer discutir segurança de IA ou precisa de orientação sobre políticas de uso de IA na sua organização?

Conecte-se comigo no LinkedIn e vamos trocar experiências.


Ricardo Esper é CEO da NESS Processos e Tecnologia (desde 1991), CISO da IONIC Health, e CEO da forense.io. Certificado CCISO e CEHIv8, é membro ativo de HackerOne, OWASP e da Comissão de Privacidade de Dados da OAB SP.