1. Início
  2. / Ciência e Tecnologia
  3. / Jamais diga essas coisas ao ChatGPT
Tempo de leitura 5 min de leitura Comentários 0 comentários

Jamais diga essas coisas ao ChatGPT

Escrito por Alisson Ficher
Publicado em 06/04/2025 às 15:54
Especialistas alertam: nunca revele dados pessoais a IAs como ChatGPT. Veja quais informações você deve manter longe dessas ferramentas digitais.
Especialistas alertam: nunca revele dados pessoais a IAs como ChatGPT. Veja quais informações você deve manter longe dessas ferramentas digitais.

Compartilhar dados pessoais com ferramentas de inteligência artificial pode parecer inofensivo, mas pode custar caro. Saiba quais informações nunca devem ser ditas em chats como o ChatGPT, Claude ou Gemini, segundo alertas de especialistas em cibersegurança.

Modelos de inteligência artificial se tornaram parte do dia a dia de milhões de pessoas, mas poucos usuários sabem o risco real de compartilhar informações sensíveis em chats como o ChatGPT.

Apesar dos alertas emitidos pelas próprias plataformas, ainda é comum que internautas revelem mais do que deveriam durante conversas com essas ferramentas.

Conforme alertou a repórter Nicole Nguyen, do jornal norte-americano Wall Street Journal, existem ao menos cinco tipos de dados que jamais deveriam ser compartilhados com ferramentas de IA.

Dia
Xaomi 14T Pro tá um absurdo de potente e barato! Corre na Shopee e garanta o seu agora!
Ícone de Episódios Comprar

O risco não está apenas na exposição individual, mas também na forma como as empresas utilizam essas informações para treinar modelos futuros, o que pode incluir o compartilhamento com terceiros.

Dados pessoais alimentam os modelos

Aplicativos como o ChatGPT, Gemini (Google) e Claude (Anthropic) deixam claro em seus termos de uso que dados fornecidos podem ser utilizados para melhorar os sistemas.

Ou seja, tudo que o usuário escreve ali pode se tornar parte do banco de treinamento da IA.

Embora muitas empresas aleguem que o processo é anonimizado, não há garantias absolutas sobre a privacidade.

“Não insira informações confidenciais ou quaisquer dados que você não gostaria que um revisor visse”, diz a recomendação oficial do Gemini, da Google, reforçando os riscos de exposição.

A situação fica ainda mais delicada quando se trata de plataformas de origem estrangeira com pouca transparência.

Um exemplo é o DeepSeek, um chat de IA desenvolvido na China, que, segundo especialistas em segurança digital, armazena as informações indefinidamente e pode compartilhá-las com o governo chinês, mais especificamente com órgãos vinculados ao Partido Comunista Chinês.

Os 5 tipos de informações que você nunca deve fornecer

De acordo com a reportagem de Nicole Nguyen, existem cinco categorias de dados que não devem ser compartilhadas com inteligência artificial, sob hipótese alguma.

Informações de identidade pessoal

    Evite informar número do F, RG, aporte, carteira de motorista, data de nascimento, endereço completo e telefone.

    Esses dados são considerados altamente sensíveis e podem ser utilizados em fraudes, clonagem de identidade ou até mesmo em golpes financeiros.

    Jamais forneça essas informações, nem mesmo de forma parcial.

    Histórico ou dados médicos

      Conversar com IA sobre questões de saúde pode parecer inofensivo, mas qualquer dado médico que você compartilha pode ser armazenado, inclusive sintomas, diagnósticos e tratamentos.

      Além de comprometer sua privacidade, isso pode ser usado por empresas para segmentação de anúncios, violando o direito à confidencialidade médica.

      Dados bancários e financeiros

        Não compartilhe número de contas bancárias, cartões de crédito, Pix ou qualquer outra informação financeira.

        Embora pareça óbvio, ainda há quem use a IA para organizar finanças pessoais e acabe inserindo dados privados, o que representa um risco altíssimo de furto de identidade bancária ou invasão de contas.

        Informações corporativas e sigilosas do trabalho

          Muitos profissionais recorrem a ferramentas como o ChatGPT para revisar textos, gerar relatórios ou obter ideias para reuniões.

          Porém, é essencial utilizar uma conta empresarial separada e nunca rear dados estratégicos da empresa.

          Há registros de casos em que empresas perderam o controle sobre dados sensíveis após usarem IA para otimizar tarefas internas.

          s e senhas

            Jamais registre s ou senhas em plataformas de IA.

            Mesmo que a conversa pareça segura, essas ferramentas não foram desenvolvidas como gerenciadores de senhas e não garantem a criptografia necessária para esse tipo de dado.

            Além disso, os termos de uso geralmente isenta a empresa de responsabilidade por qualquer vazamento.

            Existe um jeito de apagar o que você já enviou?

            Se você se deu conta de que já compartilhou alguma informação indevida com a IA, ainda é possível minimizar os danos.

            No caso do ChatGPT, o usuário pode apagar dados anteriores por meio do de configurações.

            Basta clicar no seu nome no canto superior direito da tela, ar “Configurações”, depois “Personalização” e selecionar “Gerenciar Memórias”.

            Lá, é possível visualizar o que foi armazenado e apagar permanentemente clicando no ícone da lixeira.

            Para quem deseja um “recomeço”, há também a opção de “Limpar memória do ChatGPT”, o que apaga todo o histórico da ferramenta.

            Brasil ainda discute regulação do uso da IA

            No Brasil, a legislação sobre inteligência artificial ainda está em desenvolvimento, mas o projeto de lei que visa regulamentar o setor já avança no Congresso Nacional.

            A proposta busca estabelecer regras claras sobre uso de dados, responsabilidades das empresas e direitos dos usuários.

            Especialistas em direito digital alertam que a ausência de uma legislação robusta aumenta os riscos à privacidade e segurança.

            A tendência é que nos próximos anos, com a popularização das IAs, esses debates ganhem ainda mais força.

            Boas práticas ao usar inteligência artificial

            Para garantir segurança, os especialistas recomendam adotar boas práticas de uso consciente da IA:

            Utilize perfis diferentes para uso pessoal e profissional.

            Evite tratar questões sensíveis ou privadas com assistentes virtuais.

            Leia os termos de uso e entenda como seus dados serão armazenados.

            Use IAs apenas para finalidades seguras, como organização, resumo de textos ou consulta de informações públicas.

            Cuidado nunca é demais

            O avanço da inteligência artificial é inevitável, mas a responsabilidade pelo uso consciente ainda é do usuário.

            Compreender os limites e os riscos envolvidos é fundamental para evitar dores de cabeça futuras.

            Afinal, em um ambiente digital onde tudo pode ser armazenado, revisto e compartilhado, a melhor proteção ainda é o bom senso.

            E você, já se pegou compartilhando mais do que devia com um assistente de inteligência artificial Comente sua experiência e participe da conversa!

            Seja o primeiro a reagir!
            Reagir ao artigo
            Inscreva-se
            Entre com
            Notificar de
            guest
            0 Comentários
            Mais recente
            Mais antigos Mais votado
            s
            Visualizar todos comentários

            Alisson Ficher

            Jornalista formado desde 2017 e atuante na área desde 2015, com seis anos de experiência em revista impressa, agens por canais de TV aberta e mais de 12 mil publicações online. Especialista em política, empregos, economia, cursos, entre outros temas. Registro profissional: 0087134/SP. Se você tiver alguma dúvida, quiser reportar um erro ou sugerir uma pauta sobre os temas tratados no site, entre em contato pelo e-mail: [email protected]. Não aceitamos currículos!

            Compartilhar em aplicativos
            0
            Adoraríamos sua opnião sobre esse assunto, comente!x