Corre aqui, Skynet! ChatGPT representa perigo para a OMS

Entenda por que a maior autoridade em saúde do mundo encara chatbots como o ChatGPT com receito e alerta para riscos à população.



O uso do ChatGPT pode ter muitas vantagens para algumas pessoas que trabalham com internet ou que precisam de auxílio para diversos assuntos. Porém, a ferramenta ainda não deve ser utilizada em qualquer situação. A Organização Mundial da Saúde (OMS) advertiu para usos do chatbot que podem interferir diretamente na saúde pública e individual.

Veja também: Rede de fast-food vai colocar Inteligência Artificial para fazer atendimentos

Segundo a OMS, ferramentas que trabalham com modelo de linguagens (LLMs) pode causar confusão na mente das pessoas. Por imitarem o diálogo humano muito bem e acessarem um banco de dados incrivelmente grande e variado, é possível que algumas pessoas sejam informadas de modo superficial e perigoso.

A OMS diz que o ChatGPT e outras ferramentas do tipo “estão gerando um entusiasmo significativo em torno do potencial de atender às necessidades de saúde das pessoas”. O alerta foi publicado na última terça-feira (16), em forma de aviso de cautela.

Examine os riscos que o ChatGPT e outras plataformas oferecem

No comunicado, a OMS pede para que as pessoas examinem correta e profundamente os riscos que esses mecanismos podem oferecer. O objetivo, é fazer com que sirvam “para aumentar a capacidade de diagnóstico em ambientes com poucos recursos para proteger a saúde das pessoas e reduzir a desigualdade”.

Ainda reforça que a adoção precipitada de sistemas como o ChatGPT, não testados para a saúde, possa levar a erros dos profissionais da área e a danos para os pacientes. Isso pode representar um atraso nos potenciais benefícios de longo prazo que a tecnologia tem capacidade de projetar e oferecer.

Principais preocupações

Veja quais são as principais preocupações da OMS sobre o uso de tecnologias de linguagem como o ChatGPT:

  • Os dados usados podem ser tendenciosos e gerar desinformação;
  • Engano dos usuários com respostam que aparentam ser plausíveis e originais;
  • O sistema pode ser treinado com dados que não tem permissão para serem usados assim;
  • Geração de desinformação convincente generalizada.

A indicação do órgão é para que as autoridades tomem providências para garantir a segurança e a proteção dos pacientes.




Voltar ao topo

Deixe um comentário