Compartilhar dados pessoais com ferramentas de inteligência artificial pode parecer inofensivo, mas pode custar caro. Saiba quais informações nunca devem ser ditas em chats como o ChatGPT, Claude ou Gemini, segundo alertas de especialistas em cibersegurança.
Modelos de inteligência artificial se tornaram parte do dia a dia de milhões de pessoas, mas poucos usuários sabem o risco real de compartilhar informações sensíveis em chats como o ChatGPT.
Apesar dos alertas emitidos pelas próprias plataformas, ainda é comum que internautas revelem mais do que deveriam durante conversas com essas ferramentas.
Conforme alertou a repórter Nicole Nguyen, do jornal norte-americano Wall Street Journal, existem ao menos cinco tipos de dados que jamais deveriam ser compartilhados com ferramentas de IA.
-
Google fecha parceria com PM de SP para travar celulares roubados à distância
-
Você nunca viu o Sol assim: Agência Espacial Europeia divulga imagem inédita do polo sul solar — e promete registros ainda mais impressionantes em breve
-
Este é o motor Volkswagen que consumia mais óleo que gasolina
-
De vila pacata a potência em robótica: a cidade do Nordeste que virou polo tech do Brasil e está atraindo investidores ao redor do mundo
O risco não está apenas na exposição individual, mas também na forma como as empresas utilizam essas informações para treinar modelos futuros, o que pode incluir o compartilhamento com terceiros.
Dados pessoais alimentam os modelos
Aplicativos como o ChatGPT, Gemini (Google) e Claude (Anthropic) deixam claro em seus termos de uso que dados fornecidos podem ser utilizados para melhorar os sistemas.
Ou seja, tudo que o usuário escreve ali pode se tornar parte do banco de treinamento da IA.
Embora muitas empresas aleguem que o processo é anonimizado, não há garantias absolutas sobre a privacidade.
“Não insira informações confidenciais ou quaisquer dados que você não gostaria que um revisor visse”, diz a recomendação oficial do Gemini, da Google, reforçando os riscos de exposição.
A situação fica ainda mais delicada quando se trata de plataformas de origem estrangeira com pouca transparência.
Um exemplo é o DeepSeek, um chat de IA desenvolvido na China, que, segundo especialistas em segurança digital, armazena as informações indefinidamente e pode compartilhá-las com o governo chinês, mais especificamente com órgãos vinculados ao Partido Comunista Chinês.
Os 5 tipos de informações que você nunca deve fornecer
De acordo com a reportagem de Nicole Nguyen, existem cinco categorias de dados que não devem ser compartilhadas com inteligência artificial, sob hipótese alguma.
Informações de identidade pessoal
Evite informar número do F, RG, aporte, carteira de motorista, data de nascimento, endereço completo e telefone.
Esses dados são considerados altamente sensíveis e podem ser utilizados em fraudes, clonagem de identidade ou até mesmo em golpes financeiros.
Jamais forneça essas informações, nem mesmo de forma parcial.
Histórico ou dados médicos
Conversar com IA sobre questões de saúde pode parecer inofensivo, mas qualquer dado médico que você compartilha pode ser armazenado, inclusive sintomas, diagnósticos e tratamentos.
Além de comprometer sua privacidade, isso pode ser usado por empresas para segmentação de anúncios, violando o direito à confidencialidade médica.
Dados bancários e financeiros
Não compartilhe número de contas bancárias, cartões de crédito, Pix ou qualquer outra informação financeira.
Embora pareça óbvio, ainda há quem use a IA para organizar finanças pessoais e acabe inserindo dados privados, o que representa um risco altíssimo de furto de identidade bancária ou invasão de contas.
Informações corporativas e sigilosas do trabalho
Muitos profissionais recorrem a ferramentas como o ChatGPT para revisar textos, gerar relatórios ou obter ideias para reuniões.
Porém, é essencial utilizar uma conta empresarial separada e nunca rear dados estratégicos da empresa.
Há registros de casos em que empresas perderam o controle sobre dados sensíveis após usarem IA para otimizar tarefas internas.
s e senhas
Jamais registre s ou senhas em plataformas de IA.
Mesmo que a conversa pareça segura, essas ferramentas não foram desenvolvidas como gerenciadores de senhas e não garantem a criptografia necessária para esse tipo de dado.
Além disso, os termos de uso geralmente isenta a empresa de responsabilidade por qualquer vazamento.
Existe um jeito de apagar o que você já enviou?
Se você se deu conta de que já compartilhou alguma informação indevida com a IA, ainda é possível minimizar os danos.
No caso do ChatGPT, o usuário pode apagar dados anteriores por meio do de configurações.
Basta clicar no seu nome no canto superior direito da tela, ar “Configurações”, depois “Personalização” e selecionar “Gerenciar Memórias”.
Lá, é possível visualizar o que foi armazenado e apagar permanentemente clicando no ícone da lixeira.
Para quem deseja um “recomeço”, há também a opção de “Limpar memória do ChatGPT”, o que apaga todo o histórico da ferramenta.
Brasil ainda discute regulação do uso da IA
No Brasil, a legislação sobre inteligência artificial ainda está em desenvolvimento, mas o projeto de lei que visa regulamentar o setor já avança no Congresso Nacional.
A proposta busca estabelecer regras claras sobre uso de dados, responsabilidades das empresas e direitos dos usuários.
Especialistas em direito digital alertam que a ausência de uma legislação robusta aumenta os riscos à privacidade e segurança.
A tendência é que nos próximos anos, com a popularização das IAs, esses debates ganhem ainda mais força.
Boas práticas ao usar inteligência artificial
Para garantir segurança, os especialistas recomendam adotar boas práticas de uso consciente da IA:
Utilize perfis diferentes para uso pessoal e profissional.
Evite tratar questões sensíveis ou privadas com assistentes virtuais.
Leia os termos de uso e entenda como seus dados serão armazenados.
Use IAs apenas para finalidades seguras, como organização, resumo de textos ou consulta de informações públicas.
Cuidado nunca é demais
O avanço da inteligência artificial é inevitável, mas a responsabilidade pelo uso consciente ainda é do usuário.
Compreender os limites e os riscos envolvidos é fundamental para evitar dores de cabeça futuras.
Afinal, em um ambiente digital onde tudo pode ser armazenado, revisto e compartilhado, a melhor proteção ainda é o bom senso.
E você, já se pegou compartilhando mais do que devia com um assistente de inteligência artificial Comente sua experiência e participe da conversa!