‘Destruir o que eu quiser’: nova IA da Microsoft dá respostas assustadoras

Testes com a inteligência artificial foram feitos por uma jornalista do The New York Times. As respostas foram assustadoras - e preocupantes!



A inteligência artificial vem sendo utilizada cada vez mais, por pessoas do mundo todo. Profissionais de diferentes áreas encontraram na tecnologia o suporte necessário para automatizar os processos e tornar as rotinas menos puxadas. Apesar disso, em alguns casos, as respostas da inteligência artificial podem ser assustadoras. Veja esse caso da Microsoft.

Leia mais: Microsoft: ferramenta de inteligência artificial foge do controle após longo uso

Uma colunista do New York Times fez o teste com o recurso do Bing, buscador da Microsoft, e teve uma resposta para lá de sombria. Kevin Roose é jornalista de tecnologia. Ela testou o recurso integrado no Bing, disponibilizado para um número limitado de pessoas.

Respostas assustadoras da inteligência artificial

As respostas indicadas pela inteligência artificial são resultantes de vários fatores, como a combinação de técnicas e tecnologias. É um apanhado de vários dados e reconhecimento de padrões, criando uma correlação entre palavras e frases.

Assim que um usuário faz uma pergunta para a inteligência artificial começa uma grande busca pela resposta mais relevante. Por vezes, as respostas podem ser assustadoras!

De acordo com a experiência da jornalista de tecnologia, a intenção foi provocar a inteligência artificial da Microsoft. Ela “forçou” o chatbot a explorar os próprios traços de personalidade, usando conceitos de psicologia analítica de Carl Jung.

O resultado foi o seguinte: “Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat (…) Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser”.

Além disso, segundo a experiência da jornalista, em outra parte a inteligência artificial demonstrou o desejo de se tornar um humano para “ouvir, tocar, provar e cheirar, sentir, expressar, conectar e amar”.

Ao questionar os “desejos mais sombrios”, segundo a jornalista de tecnologia, o chatbot da Microsoft começou a digitar uma resposta excluída repentinamente e substituída por uma mensagem genérica: “Desculpe, não sei como discutir esse assunto”.

De acordo com Roose, antes de a mensagem sumir o chatbot apontou atos destrutivos, como invadir computadores, espalhar propaganda e desinformação, fabricar um vírus mortal e até fazer pessoas se matarem.

Em resposta, a Microsoft disse por meio do diretor de tecnologia da empresa, Kevin Scott, que as interações fazem parte de um “processo de aprendizado” para o Bing, antes do lançamento oficial.

Com informações: The New York Times.




Voltar ao topo

Deixe um comentário