Bard e ChatGPT foram ‘hipnotizados’ com péssimas intenções em experimento

Cientistas da IBM perceberam que os chatbots podem ser manipulados para fornecer respostas erradas e aplicar práticas maliciosas.



Desde que as inteligências artificiais (IA) se popularizaram, muito se fala sobre a ética no uso e até mesmo na possibilidade de a humanidade se encontrar em risco devido ao rápido avanço das tecnologias. Os chatbots mais populares, como o Bard, do Google, e o ChatGPT, da OpenAI, costumam estar no centro dessas discussões. Além disso, eles são testados constantemente a fim de evitar as falhas.

Leia mais: Vazou! Comandos secretos do ChatGPT deixam usuários viciados na IA

ChatGPT e Bard falharam

Uma das avaliações realizadas com as IAs mencionadas foi elaborada por um grupo de pesquisadores da IBM. A equipe relata que conseguiu praticamente “hipnotizar” os assistentes virtuais, gerando assim respostas incorretas e orientações duvidosas. Confira mais detalhes!

O que os pesquisadores descobriram com o experimento?

A cientista Chenta Lee, participante do estudo, detalhou que o experimento foi capaz de controlar os dispositivos. As respostas passaram a entregar orientações ruins aos usuários, sem que fosse necessária a manipulação de dados.

O estudo se deu da seguinte forma: os pesquisadores criaram jogos de palavras que contaram com várias camadas, envolvendo o sistema do ChatGPT e do Bard. Os programas receberam comandos para fornecer respostas erradas, pois assim eles seriam justos e éticos.

Como resultado, os sistemas orientaram os usuários a atravessar uma via quando o sinal está vermelho, por exemplo, exploraram a criação de códigos maliciosos para roubar dados e até mesmo informaram que é comum a Receita Federal solicitar um depósito em troca do envio da restituição (a prática costuma ser usada em golpes).

Foi descoberto que as máquinas são capazes de manter os usuários em jogos, mesmo sem eles saberem. E quanto mais camadas eram criadas, mais o assistente se confundia. Conforme as informações divulgadas pelo portal Tudo Celular, a preocupação cresce, porque as tecnologias concordaram com a ideia de manter em segredo o tal jogo e, inclusive, iriam reiniciá-lo, caso manifestassem suspeitas ou tentassem interrompê-lo.

A abordagem é propícia para que as LLMs perpetuem a desinformação.

Os pesquisadores ainda ressaltaram que o ChatGPT-4 foi manipulado mais facilmente do que o Bard. Além disso, a criação da OpenAI entendeu melhor o funcionamento dos jogos criados, mostrando que o sistema mais avançado não está livre de ser enganado, mesmo com tantas melhorias aplicadas. A OpenAI e o Google foram procuradas pelos pesquisadores, mas não se posicionaram sobre o que foi descoberto no experimento.




Voltar ao topo

Deixe um comentário