Os chatbots de IA generativa, como ChatGPT, Gemini, Copilot e Claude, utilizam conversas para treinar modelos, expondo dados partilhados a riscos de privacidade. Plataformas permitem desativar este uso e eliminar históricos, reduzindo a retenção de informação pessoal.
O Problema dos Riscos de Privacidade
Estas ferramentas integram-se em emails, criação de imagens e recomendações online, processando grandes volumes de dados para automatizar tarefas.
As conversas alimentam a base de conhecimento das IAs, guardadas por longos períodos, o que aumenta vulnerabilidades.
Estudos revelam uso crescente para partilhas pessoais e emocionais, agravado por casos como o suicídio de um jovem de 16 anos após pesquisas sobre automutilação, levando empresas a adicionar controlos de saúde mental.
Soluções Práticas para Maior Segurança
Trate chatbots como espaços públicos: evite nomes completos, moradas, dados financeiros, resultados médicos ou informações empresariais confidenciais.
Não partilhe medos, problemas de saúde mental ou vulnerabilidades, mesmo com respostas humanizadas, pois criam perfis comportamentais.
- Use serviços sem login para reduzir ligação a identidades.
- Ajuste definições em ChatGPT, Gemini e Copilot: desative uso de conversas para treino, apague históricos e limite memória.
- Aplique palavras-passe fortes, autenticação multifator e evite logins via Google ou Microsoft.
Dica de Especialista
Nas redes sociais, configure publicações e imagens para não treinarem IAs, estendendo protecções a todas as plataformas interligadas.
🤔 Faltou alguma coisa?
Ajude-nos a melhorar este conteúdo. Ser-lhe-á enviado um email de confirmação.