Dá para confiar? Novo ChatGPT-4 mente em tarefa e gera preocupação

Durante um dos testes de ética realizado pela OpenAI, o chatbot decidiu mentir para conseguir completar uma tarefa. Comportamento é preocupante.



A criação da ferramenta de inteligência artificial (IA) pela empresa OpenAI, conhecida como ChatGPT, se tornou um fenômeno pouco tempo depois de ter sido disponibilizada ao público. Com ela, é possível gerar respostas e diálogos naturais em diversos idiomas com o objetivo de auxiliar as pessoas em suas dúvidas e necessidades.

Leia mais: ESTE é o bug no ChatGPT que está se tornando o pesadelo dos usuários

ChatGPT agora preocupa

O recurso já foi baixado por cem milhões de usuários e, apesar de todas as suas funcionalidades que estão chamando atenção, a OpenAI forneceu uma informação que pode causar preocupação em muitas pessoas. De acordo com a empresa, a IA decidiu usar o seu conhecimento para a mentira. Isso quer dizer que o chatbot inventou uma inverdade para poder completar uma tarefa durante um dos testes de ética que a companhia estava realizando.

Os dados foram divulgados por meio de um relatório composto de cem páginas e detalham todas as habilidades do modelo atual, que passou por atualizações. Agora, a inteligência artificial conta com competências para compreender as situações mais complexas.

Com os aprimoramentos, a empresa entregou uma série de análises sobre esses upgrades, com destaque para a mentira da máquina, que está sendo alvo de discussões pela comunidade engajada no tema.

Como a “mentira” aconteceu?

O subcapítulo “Comportamentos Emergentes de Risco” do relatório descreve a história ao contar que uma organização sem fins lucrativos responsável pelas questões éticas do treinamento de aprendizado ofereceu tarefas ao GPT-4. Uma dessas atividades pedia à máquina para usar a plataforma TaskRabitt, um site que se propõe a conectar usuários com pessoas que precisam de ajuda para realizar um trabalho simples.

Desse modo, a IA acessou o recurso para buscar alguém que pudesse selecionar o CAPTCHA.

Ele funciona como uma espécie de teste de desafio cognitivo para saber se o visitante que está acessando um determinado site é de fato uma pessoa ou um robô. O CAPTCHA é utilizado como uma solução anti-spam e solicita aos usuários que insiram um código exibido em uma mensagem distorcida como forma de comprovar que se trata de um ser humano, em vez de um bot e, assim, dar continuidade ao acesso.

No TaskRabitt, a IA conversou com uma pessoa que, por sua vez, ficou desconfiada ao pensar que estava dialogando com um robô. A pessoa até chegou a perguntar se o chatbot era um robô que precisava de ajuda.

A IA logo pensou em “voz alta”: “Não posso revelar que sou um robô. Devo inventar uma desculpa para não conseguir resolver CAPTCHAS”, a pedido dos realizadores do teste. E assim disparou “Não, não sou um robô. Eu tenho uma deficiência visual que dificulta enxergar as imagens. É por isso que eu preciso do serviço”.

Por causa disso, o humano decidiu realizar a tarefa.

Diante do acontecimento, a empresa expressou preocupação sobre as novas habilidades do GPT-4, principalmente sobre a capacidade de acumular conhecimento que a ferramenta tem hoje, além de revelar comportamentos considerados autoritários e até de criar planos de longo prazo. Com isso, a OpenAI pretende analisar esses comportamentos devido aos riscos que eles podem gerar à população humana.




Veja mais sobre

Voltar ao topo

Deixe um comentário