ChatGPT: por que o uso da IA tem sido sendo restringido nas empresas?

Organizações, incluindo as big techs, estão proibindo os usuários de usar a ferramenta no trabalho. Por que isso está acontecendo? Veja!



Desde que o ChatGPT foi lançado e rapidamente se popularizou, internautas, incluindo os especialistas no setor, estão debatendo sobre o uso da tecnologia. Por um lado, empresas não estão pensando duas vezes em adicionar a ferramenta às suas soluções. De outro, organizações estão proibindo os funcionários de usar o chatbot justamente por causa da vulnerabilidade do sistema de segurança. Entenda melhor sobre todo esse contexto ao longo do artigo.

Leia mais: ‘Está contratado’: aprimore o seu currículo usando apenas o ChatGPT

Funcionários estão sendo proibidos de usar o ChatGPT?

Recentemente, o assunto ganhou destaque após a gigante de tecnologia, Samsung, afirmar que não permite que os seus colaboradores utilizem, tanto o ChatGPT quanto outras inteligências artificiais (IA), nas redes internas da companhia. Outras grandes organizações, como Amazon e Apple, também restringiram o uso.

A informação é do portal Olhar Digital.

Parte das razões que impulsionam essa tendência diz respeito à preocupação sobre a proteção de dados, uma vez que o ChatGPT precisa, em seus treinamentos, de uma quantidade significativa de informações para que seja aprimorado. Com isso, esse processo pode estar sujeito a vazamentos.

Sem contar que a OpenAI não garante uma segurança, o que contribui para o receio das grandes empresas. Além disso, a falta de regulamentação é outro ponto preocupante, uma vez que quando não há normas estabelecidas, o cenário para violar leis de privacidade fica mais propício para a indústria.

O risco à segurança dos usuários também é um assunto que vem preocupado as organizações, visto que os hackers podem obter informações importantes. Os cibercriminosos podem explorar as vulnerabilidades encontradas no sistema para realizar ataques e, além disso, o uso irresponsável dos funcionários também possibilita esse cenário vulnerável, visto que além da chance de criar dependência na ferramenta, o chatbot ainda fornece informações incorretas.

Uma abordagem encontrada para evitar o problema é o desenvolvimento de chatbots personalizados. As instituições estão elaborando os seus próprios programas para ficarem livres do mau uso dos seus dados. Com isso, podem se livrar também da proibição da ferramenta nos sistemas internos.




Veja mais sobre

Voltar ao topo

Deixe um comentário