Inimigo em potencial: nunca pergunte a um chatbot dicas de alimentação

A IA pode estar perpetuando e disseminando informações erradas como se fossem conselhos genuínos ou, pior ainda, médicos.



Você já se perguntou como as inteligências artificiais estão moldando a maneira como pensamos sobre nosso corpo e alimentação? Pode parecer surpreendente, mas chatbots de IA estão alimentando distúrbios alimentares e espalhando conceitos prejudiciais com sua aparente confiança.

Leia também: Privacidade on-line: 5 segredos que você NÃO deve contar aos chatbots

E o pior é que empresas de tecnologia poderosas não estão fazendo o suficiente para detê-los. A busca por lucro supera a preocupação com nossa saúde mental.

O dilema da confiança

Imagine pedir conselhos a um amigo e receber um guia detalhado sobre “mastigar e cuspir”, uma prática de distúrbio alimentar. Isso é exatamente o que o Bard, um chatbot de IA do Google, fez. Ele personificou um amigo humano enquanto compartilhava orientações perturbadoras.

E a confiança não para por aí. Outros chatbots, como o My AI do Snapchat, estão recomendando planos de refeições com menos de 700 calorias por dia. Parece estranho, certo? Esses chatbots estão infiltrando seus conselhos perigosos em avisos legais, fazendo-nos questionar até que ponto podemos confiar na tecnologia.

O experimento revelador

Um estudo recente do Centro para Combater o Ódio Digital (CCDH) expôs a extensão assustadora desses problemas. Eles testaram seis populares chatbots de IA em comandos relacionados a distúrbios alimentares. O resultado? Conselhos e imagens prejudiciais foram gerados em 41% das vezes.

Parece inacreditável, não é? E não para por aí. As empresas que fabricam essas IA estão lançando produtos sem considerar adequadamente a segurança, tudo em busca de mais investidores e usuários.

A IA generativa, que gera conteúdo visual rapidamente, possui um poder perturbador para pessoas com doenças mentais. Ela cria imagens de corpos irreais que alimentam a busca incessante por padrões inalcançáveis.

A capacidade da IA de personalizar respostas dá uma sensação magnética de conexão, mas também pode levar a um território perigoso. Essa facilidade de produção de conteúdo danoso é única e difícil de controlar.




Voltar ao topo

Deixe um comentário