Usa o ChatGTP? Cuidado! Empresa diz que ele pode expor seus dados

Relatório mostra que companhias devem ter cuidado ao adotar o uso das IAs em seus produtos, porque o recurso pode revelar informações sigilosas.



Depois que o ChatGPT, inteligência artificial (IA) da empresa OpenAI, foi lançado ao mercado, ele se tornou um fenômeno no setor. Não é à toa que diversas companhias estão usando a ferramenta em seus serviços, a fim de otimizar a experiência do usuário com todas as surpreendentes funcionalidades do recurso.

Leia mais: Homem pede que ChatGPT crie empresa: hoje, ela já vale US$ 25 mil

Mas um relatório elaborado e divulgado pela empresa cibernética com sede em Israel, Team8, emitiu um importante alerta: as empresas que usam ferramentas de IA gerativas, a exemplo do ChatGPT, podem estar colocando em perigo as informações confidenciais de clientes, além de alguns segredos comerciais.

ChatGTP: dados sigilosos podem estar em perigo?

O documento aponta que a adoção amplamente difundida atualmente entre as organizações dos chatbots que geram conteúdo por comando de texto, podem deixar certas informações vulneráveis e como alvo de vazamento de dados.

A preocupação se dá principalmente pela possibilidade de hackers acessarem segredos corporativos para efetuar ações contra as empresas. Além disso, o relatório também aponta uma apreensão quanto aos dados confidenciais entregues ao chatbot, que podem ser usados pelas empresas de IA no futuro.

A corrida pela dominação da tecnologia está acirrada. As gigantes da área, Microsoft e Alphabet, estão correndo contra o tempo para adicionar as facilidades dos chatbots em suas soluções, principalmente nos mecanismos de busca. Tudo isso é feito por uma série de treinamentos dos modelos, com informações que são retiradas da internet.

O documento da Team8 aponta que, se forem usados dados delicados nas etapas de teste, o robô pode fornecer respostas com informações sigilosas e que dificilmente deixaram de existir na rede mundial.

Outra questão que pode trazer problemas está relacionada principalmente aos usuários. O relatório explica que a Microsoft, por exemplo, integrou a ferramenta ao Bing, assim como aos produtos da Microsoft 365 que precisam de login para serem acessados. Se caso houvesse alguma invasão, os cibercriminosos poderiam utilizar a identidade dos clientes, com o e-mail de acesso, para aplicar golpes.

Sem contar que as empresas também podem enfrentar questões com direitos autoriais, caso algo secreto fosse vazado. O alerta serve para as organizações tomarem medidas de segurança para prevenir ataques. Os próximos treinamentos de IA também devem ser realizados com mais cuidado, segundo ressalta a Team8.




Veja mais sobre

Voltar ao topo

Deixe um comentário