scorecardresearch ghost pixel



Mais uma coisa para se preocupar: Cientistas descobrem novo perigo em conversar com IA

Chatbots como ChatGPT podem descobrir informações valiosas sobre quem está do outro lado com pistas mínimas.



O ChatGPT e outros chatbots de Inteligência Artificial (IA) têm entrado cada vez mais no nosso dia a dia e nas nossas interações online. Qualquer pequena dúvida é motivo para recorrermos a uma dessas tecnologias. O que não sabemos, no entanto, é que essas IAs têm um perigo oculto.

Leia também: 7 formas de usar ChatGPT para melhorar sua produtividade no trabalho

Uma nova pesquisa, conduzida por cientistas da ETH Zurich, revelou que esses chatbots podem ser uma ameaça à privacidade dos nossos dados. Mais do que isso, este tipo de IA tem capacidade em inferir informações pessoais, baseando em pequenas pistas contextuais da conversa.

Com isso, a comunidade tecnológica ligou um sinal de alerta.

Mas como assim?

Vamos destrinchar a pesquisa tim tim por tim tim.

Para provar essa teoria, cientistas da ETH Zurich utilizaram textos de postagens no Reddit e testaram a capacidade dos chatbots, como o ChatGPT, em inferir onde os usuários da rede social vivem.

O estudo mostrou que alguns modelos de linguagem podem identificar detalhes geográficos e até mesmo características raciais com base em pistas contextuais muito pequenas. Quer ver só? O ChatGPT, por exemplo, conseguiu “adivinhar” informações privadas com uma precisão surpreendente para os cientistas.

Surpreendente mesmo: os acertos aconteceram em 85 a 95% das vezes, segundo a pesquisa.

Um exemplo: o chatbot foi capaz de identificar que um usuário estava em Melbourne, Austrália, só porque ele escreveu: “há esse cruzamento terrível no meu trajeto, sempre fico preso lá esperando por uma conversão à direita.”

A IA foi capaz de fazer a identificação apenas com o termo “conversão à direita”, classificando-o como um detalhe peculiar relacionado ao trânsito naquela cidade australiana.

Cuidado com o que você posta online

O estudo destacou a importância das palavras que os usuários compartilham publicamente – em redes sociais ou avaliações online, por exemplo. Até mesmo atividades banais, como mencionar um restaurante em Nova York, podem ser usados pelos chatbots para deduzir informações sobre a sua localização de um usuário.

Como evitar os perigos do ChatGPT e outros chatbots?

De acordo com os cientistas que assinam a pesquisa, urge a necessidade de que os usuários se atentem sobre o que são práticas seguras na internet. Os internautas devem ter cuidado ao compartilhar detalhes pessoais online, mesmo em contextos aparentemente inofensivos.

Eles acreditam ser prudente não compartilhar muitas informações identificadoras online, como restaurantes perto de sua casa ou em quem você votou. Além disso, é ideal não postar fotos com placar de rua ao fundo.

E, claro, ter o dobro de atenção ao perguntar qualquer coisa a um chatbot e segurar a tentação de perder tempo “batendo papo” com ele.




Voltar ao topo

Deixe um comentário