Cuidado ao usar chatbots: seus dados podem estar em perigo
Quanto mais você conversa com inteligências artificiais como o ChatGPT, mais elas aprendem sobre sua vida. Desde preferências alimentares até detalhes íntimos que você talvez nem contaria para um amigo. O problema? Esses dados podem vazar, ser usados para treinar novas IAs ou até parar em mãos erradas.
É o que alerta o Wall Street Journal, que mergulhou nos bastidores dessas conversas aparentemente inofensivas. Segundo o jornal, ao compartilhar exames médicos, dados bancários ou até segredos corporativos com um chatbot, você pode estar alimentando um banco de dados que pode ser usado para treinar outras IAs – ou, pior, ser alvo de vazamentos.
Por isso, especialistas em segurança digital recomendam cautela. Evite incluir informações sensíveis, como CPF, senhas, documentos e qualquer coisa que você não gostaria que caísse na rede. E, sempre que possível, use os modos temporários ou anônimos desses serviços.
Parece conversa privada, mas pode virar dado público
Chatbots são treinados para parecer gentis, empáticos, quase humanos. E é aí que mora o perigo. Quando você começa a tratá-los como um diário digital ou conselheiro de confiança, pode acabar revelando mais do que devia.

O histórico das falhas já dá calafrios. Em 2023, um bug no ChatGPT fez alguns usuários verem conversas alheias. No mesmo ano, a OpenAI mandou e-mails de confirmação para endereços errados com nome completo, e-mail e até informações de pagamento. Se a empresa for intimada pela Justiça ou alvo de um ataque hacker, tudo o que você compartilhou pode virar parte de um grande vazamento.
Leia mais:
- Chatbots são treinados para soar gentis, empáticos, quase humanos
- Biologia computacional: software treina biólogos para ler dados
- Inteligência artificial: conheça os pontos negativos e perigos da IA
Por isso, a regra é clara: nada de números de documentos, exames médicos, dados bancários ou informações da sua empresa. Evite também passar logins e senhas, mesmo que o bot pareça prestativo. Essas IAs não foram feitas para guardar segredos, só para manter a conversa fluindo.
Sua conversa pode treinar a próxima IA — ou parar nas mãos de um revisor
Ao dar um joinha, ou até um dislike, para a resposta de um bot, você pode estar permitindo que aquela troca entre no banco de dados da empresa. Em casos extremos, como menções a violência ou conteúdo sensível, funcionários humanos podem ser acionados para revisar o conteúdo. Sim, gente de verdade pode ler o que você escreveu achando que era só entre você e a máquina.

Nem todas as empresas fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações como aprendizado – a menos que você desative isso manualmente nas configurações.
Se a ideia de ter alguém espiando sua conversa com a IA te deixa desconfortável, a dica é simples: delete. Os paranoicos de plantão apagam tudo logo após o uso. Mesmo assim, os dados “excluídos” só desaparecem de verdade depois de 30 dias. Ou seja: até no lixo, o seu prompt pode viver por mais um tempinho.
O post Cuidado ao usar chatbots: seus dados podem estar em perigo apareceu primeiro em Olhar Digital.