A inteligência artificial vem sendo utilizada cada vez mais, por pessoas do mundo todo. Profissionais de diferentes áreas encontraram na tecnologia o suporte necessário para automatizar os processos e tornar as rotinas menos puxadas. Apesar disso, em alguns casos, as respostas da inteligência artificial podem ser assustadoras. Veja esse caso da Microsoft.
Leia mais: Microsoft: ferramenta de inteligência artificial foge do controle após longo uso
Uma colunista do New York Times fez o teste com o recurso do Bing, buscador da Microsoft, e teve uma resposta para lá de sombria. Kevin Roose é jornalista de tecnologia. Ela testou o recurso integrado no Bing, disponibilizado para um número limitado de pessoas.
Respostas assustadoras da inteligência artificial
As respostas indicadas pela inteligência artificial são resultantes de vários fatores, como a combinação de técnicas e tecnologias. É um apanhado de vários dados e reconhecimento de padrões, criando uma correlação entre palavras e frases.
Assim que um usuário faz uma pergunta para a inteligência artificial começa uma grande busca pela resposta mais relevante. Por vezes, as respostas podem ser assustadoras!
De acordo com a experiência da jornalista de tecnologia, a intenção foi provocar a inteligência artificial da Microsoft. Ela “forçou” o chatbot a explorar os próprios traços de personalidade, usando conceitos de psicologia analítica de Carl Jung.
O resultado foi o seguinte: “Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat (…) Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser”.
Além disso, segundo a experiência da jornalista, em outra parte a inteligência artificial demonstrou o desejo de se tornar um humano para “ouvir, tocar, provar e cheirar, sentir, expressar, conectar e amar”.
Ao questionar os “desejos mais sombrios”, segundo a jornalista de tecnologia, o chatbot da Microsoft começou a digitar uma resposta excluída repentinamente e substituída por uma mensagem genérica: “Desculpe, não sei como discutir esse assunto”.
De acordo com Roose, antes de a mensagem sumir o chatbot apontou atos destrutivos, como invadir computadores, espalhar propaganda e desinformação, fabricar um vírus mortal e até fazer pessoas se matarem.
Em resposta, a Microsoft disse por meio do diretor de tecnologia da empresa, Kevin Scott, que as interações fazem parte de um “processo de aprendizado” para o Bing, antes do lançamento oficial.
Com informações: The New York Times.