Nunca diga seu nome ao ChatGPT, alertam especialistas; motivo é assustador

Ao contrário do que muitos imaginam, informar o nome e o número de telefone aos chatbots também pode trazer altos riscos para os usuários.



Na hora de usar os chatbots de Inteligência Artificial (IA), como o ChatGPT, muitos usuários já sabem sobre a importância de não compartilhar dados sensíveis e bancários. No entanto, o especialista Stan Kaminsky, pertencente a empresa de segurança Kaspersky, afirmou que também não é recomendado compartilhar nem mesmo o próprio nome com os sistemas de IA.

Leia também: Gemini: nova inteligência artificial do Google deixa o ChatGPT no passado

Segundo Kaminsky, informações pessoais, como endereço, nome e telefone, devem ser tratadas de forma confidencial, assim como dados de contas bancárias e demais informações privadas. O conselho do especialista em segurança digital se dá por não existir nenhuma garantia de que as informações dadas no ChatGPT sejam confidenciais.

Dessa forma, a inteligência artificial armazena as conversas com seus usuários, podendo ser utilizadas posteriormente para corrigir problemas técnicos na plataforma. Além disso, as informações dos chats podem ser revisadas por humanos, que terão acesso aos dados informados nas conversas com a IA.

Informações podem ser utilizadas em golpes

O alerta de Stan Kaminsky se tornou ainda mais forte após o site estadunidense Ars Tenica acusar o OpenAI de vazar conversas privadas de usuários. Contudo, a empresa informou que não houve vazamento de informações, mas sim um roubo de contas na plataforma. Por mais que muitos usuários acreditem que nome e telefone são informações inofensivas, os dados poderão ser utilizados posteriormente para aplicar diferentes tipos de golpes.

Ao ter acesso ao nome completo e telefone do usuário, o criminoso poderá se passar por atendentes de contas bancárias e solicitar informações sigilosas. Além disso, os especialistas alertam ainda para os usuários jamais anexarem documentos pessoais em chatbots. O envio de documentação deve ser evitada até mesmo nas ferramentas que processam imagens.

Com essa atitude, o usuário estará expondo dados pessoais e fornecendo documentos que os criminosos poderão utilizar posteriormente para a aplicação de golpes. Por fim, ao solicitar que o chatbot realize tarefas que incluam informações pessoais, a dica dos especialistas é trocar os dados ou substituir os termos por asteriscos.




Voltar ao topo

Deixe um comentário