Nesta semana, o engenheiro do Google Blake Lemoine informou ao Washinton Post que uma ferramenta desenvolvida pela empresa havia desenvolvido estímulos conscientes. Sendo assim, a Language Model for Dialogue Applications (LaMDA) estava falando como se fosse um humano.
Veja também: 17 novidades que a Apple lançou com o iOS 16 no sistema do iPhone
Isso rapidamente começou a circular nas redes sociais, dando margem a várias conspirações. Muitos acreditaram que havia sim uma ameaça e até veículos de comunicação populares criaram um alerta em relação ao ocorrido, aumentando a curiosidade de quem se interessa por IA.
Por algum descuido, parece que o engenheiro do Google exagerou nos fatos
Vídeos e áudios da Inteligência Artificial se comunicando com o funcionário fizeram o caso ficar ainda mais suspeito. Apesar dos conteúdos serem reais, aparentemente houve uma falta de sensibilidade por parte dele, gerando interpretações erradas de que existia o risco de ameaça.
A complexidade de uma máquina desse nível pode ser facilmente explicada pelos padrões usados nas suas falas. As palavras e comportamentos são resgatadas de um banco de dados online e todas as suas ações têm 100% de previsibilidade, garantindo a segurança de todos.