ChatGPT é capaz de mentir? Entenda por que a IA não é tão confiável

Nas redes sociais, vários casos de IA fornecendo respostas que não condizem com a realidade já viralizaram. Essa ação tem nome. Veja como não cair!



Desde que o ChatGPT foi lançado, não se fala sobre outra coisa no universo das inteligências artificiais (IA). A ferramenta se tornou uma aliada nas tarefas corriqueiras, pois segue agilizando trabalhos e ajudando os usuários nas diversas suas atividades, desde a escolher um filme até ao ajudar a escrever artigos sobre qualquer tema.

Leia mais: Sam Altman: fundador do ChatGPT revela os 13 segredos para o sucesso

Mas quem usa o recurso como um mecanismo de pesquisa enfrenta alguns problemas, pois o assistente virtual não fornece respostas 100% seguras. Nas redes sociais, é possível ver casos de respostas mentirosas nas quais o algoritmo mostrou uma lista com nove brasileiros vencedores do prêmio Nobel, por exemplo. Ele até mesmo já se confundiu ao responder quem é o atual presidente do nosso país. Não é tão confiável, hein?

Muitos acreditam que a novidade do setor tecnológico mente, mas especialistas explicam que não é bem assim. O problema só revela que as IAs generativas apresentam falhas, ressaltando a importância de não acreditar em tudo o que elas respondem.

Especialistas explicam por que IA oferece respostas falsas

Em entrevista ao portal Exame, o cientista cognitivo e professor da PUC-SP, Diogo Cortiz, afirma que o fato de os chatbots fornecerem respostas “mentirosas” é um fenômeno científico chamado de alucinação. Esta é uma área de estudo sobre as IAs que compara a ação feita pelas máquinas com alucinação de pessoas, que acabam fornecendo respostas que não têm relação com a realidade.

Ele não concorda com o uso do termo “mentira”, pois estaria aproximando a máquina das características humanas, além de defender que elas não estão erradas, pois estão fazendo exatamente o que foram solicitadas, com base nas informações disponíveis no banco de dados delas.

Por outro lado, outros estudiosos da área afirmam ser problemático usar o termo “alucinação” em tempos em que muito se fala sobre saúde mental. Para ficar livre das fake news quem vêm com as IAs, a orientação é sempre pesquisar e consultar as fontes, tanto científicas quanto jornalisticas com reputação confiável. Além disso, é importante ter em mente que essas ferramentas são limitadas.

Elas podem ajudar nas tarefas, mas não são fonte de pesquisa. De toda forma, o trabalho para evitar as alucinações é feito pelas próprias empresas, que vão desenvolvendo o dispositivo e ampliando a base de dados.




Voltar ao topo

Deixe um comentário