Mais de 100 mil: contas invadidas no ChatGPT estão à venda na dark web

Empresa de segurança cibernética revelou que os cibercriminosos usaram programas maliciosos para roubar credenciais e vender dados.



Desde que o fenômeno ChatGPT foi lançado, alcançando cem milhões de usuários em apenas dois meses, muitas discussões foram levantadas acerca do uso da ferramenta. Por um lado, empresas adotam a tecnologia em suas soluções e profissionais usam o recurso para automatizar tarefas. Do outro, especialistas expressam preocupação.

Leia mais: Saiba como usar o ChatGPT para elevar a sua competência no trabalho

Esta preocupação vai desde o avanço desenfreado da tecnologia até a privacidade dos usuários. Neste contexto, a empresa de segurança cibernética Group-IB elaborou um levantamento e descobriu que cem mil contas do ChatGPT foram hackeadas nos últimos meses. Todas elas estão à venda na dark web.

Confira mais detalhes ao longo do texto.

Dados do ChatGPT podem ser usados para aplicar ataques virtuais

Informações divulgadas pelo portal Folha de Pernambuco apontam que a Group-IB encontrou 101.134 credenciais de contas do chatbot, que estavam sendo vendidas na parte obscura da internet. A empresa explicou que a venda acontecia em pacotes. Neles, há documentos com informações importantes, como nome do usuário e senhas.

Para roubar os dados, os golpistas usaram programas maliciosos e, logo após, era possível encontrar essas credenciais por US$ 10, cerca de R$ 47,50. Não há detalhes de quantos desses pacotes foram comprados.

O gerente de produto Threat Intelligence do Grupo-IB, Dmitry Shestakov, explicou que os profissionais costumam usar o chatbot para deixar a escrita dos e-mails melhorada, por exemplo. Esse um dos pontos preocupantes, uma vez que essas correspondências podem conter dados sensíveis, tanto do funcionário quanto da empresa em que trabalha.

Além disso, com os dados roubados, esse trabalhador pode ser alvo de ataques, pois o cibercriminoso pode descobrir produtos ou ideias inovadoras e vendê-los para os concorrentes ou até mesmo identificar bugs em soluções das companhias e se aproveitar disso para violar a segurança.

A orientação para evitar esse tipo de problema é que as empresas continuem explorando todo o potencial da inteligência artificial (IA) com cautela, estabelecendo entre os colaboradores o que não pode ser feito, como compartilhar dados pessoais e confidenciais do trabalho.

A empresa Group-IB analisou que a onda de vazamento de dados não vai ser interrompida tão cedo, considerando que as vendas das credenciais não param de crescer. Com medo deste cenário, algumas companhias, como Apple ou Samsung, passaram a não autorizar o uso do chatbot pelos empregados, contudo a pesquisa do aplicativo Fishbowl revela que o mundo executivo utiliza o assistente virtual e outras IAs generativas sem que os superiores saibam.




Veja mais sobre

Voltar ao topo

Deixe um comentário