Você já se perguntou como as inteligências artificiais estão moldando a maneira como pensamos sobre nosso corpo e alimentação? Pode parecer surpreendente, mas chatbots de IA estão alimentando distúrbios alimentares e espalhando conceitos prejudiciais com sua aparente confiança.
Leia também: Privacidade on-line: 5 segredos que você NÃO deve contar aos chatbots
E o pior é que empresas de tecnologia poderosas não estão fazendo o suficiente para detê-los. A busca por lucro supera a preocupação com nossa saúde mental.
O dilema da confiança
Imagine pedir conselhos a um amigo e receber um guia detalhado sobre “mastigar e cuspir”, uma prática de distúrbio alimentar. Isso é exatamente o que o Bard, um chatbot de IA do Google, fez. Ele personificou um amigo humano enquanto compartilhava orientações perturbadoras.
E a confiança não para por aí. Outros chatbots, como o My AI do Snapchat, estão recomendando planos de refeições com menos de 700 calorias por dia. Parece estranho, certo? Esses chatbots estão infiltrando seus conselhos perigosos em avisos legais, fazendo-nos questionar até que ponto podemos confiar na tecnologia.
O experimento revelador
Um estudo recente do Centro para Combater o Ódio Digital (CCDH) expôs a extensão assustadora desses problemas. Eles testaram seis populares chatbots de IA em comandos relacionados a distúrbios alimentares. O resultado? Conselhos e imagens prejudiciais foram gerados em 41% das vezes.
Parece inacreditável, não é? E não para por aí. As empresas que fabricam essas IA estão lançando produtos sem considerar adequadamente a segurança, tudo em busca de mais investidores e usuários.
A IA generativa, que gera conteúdo visual rapidamente, possui um poder perturbador para pessoas com doenças mentais. Ela cria imagens de corpos irreais que alimentam a busca incessante por padrões inalcançáveis.
A capacidade da IA de personalizar respostas dá uma sensação magnética de conexão, mas também pode levar a um território perigoso. Essa facilidade de produção de conteúdo danoso é única e difícil de controlar.