Desde a popularização do ChatGPT, um dos principais pontos comentados pelos usuários das redes sociais é a educação com o chatbot. Enquanto alguns pedem “por favor” e dizem “obrigado”, outros são mais diretos e vão direto ao questionamento. No entanto, um artigo divulgado recentemente por pesquisadores da Microsoft, afirmou que os modelos de Inteligência Artificial (IA) generativa funcionam melhor quando são tratados de forma humana.
Leia também: Nunca diga seu nome ao ChatGPT, alertam especialistas; motivo é assustador
Ou seja, realizar perguntas de forma educada pode fazer com que a IA oferte melhores resultados. Além disso, os pesquisadores afirmaram que os modelos possuem respostas ainda mais assertivas quando são solicitados com urgência ou importância. Assim, ao informar a relevância que a resposta terá, como afirmando ser crucial para a carreira profissional, os chatbots ofertam respostas mais completas e refinadas.
Educação pode “manipular” chatbot
Segundo a cientista do Instituto Allen para IA, Nouha Dziri, as solicitações educadas “manipulam” os mecanismos do modelo de inteligência artificial. Em entrevista ao TechCrunch, Nouha afirmou que as solicitações ativam partes do modelo que não são ativadas quando as solicitações ocorrem de forma direta e com menos emoção.
“Quanto mais dados de texto eles veem durante o treinamento, mais eficientes eles se tornam. Portanto, ‘ser mais gentil’ implica articular seus pedidos de uma maneira que esteja alinhada com o padrão de conformidade no qual os modelos foram treinados, o que pode aumentar a probabilidade de eles entregarem a saída desejada”, explicou Dziri.
Contudo, a cientista afirma ainda que ser educado com o IA não garante que o modelo gere respostas semelhantes às de um humano. Além disso, exagerar na gentileza ao solicitar uma resposta para o assistente de IA pode também ser um grande problema. Isso porque o modelo poderá gerar resultados fora do padrão de conduta do IA, como gerar linguagem ofensiva e vazamento de informações pessoalmente identificáveis.
“As solicitações [podem] explorar áreas onde o treinamento de segurança do modelo deixa a desejar, mas onde as capacidades de seguir instruções [do modelo] se destacam”, concluiu a cientista.