Quase metade dos CEOs acredita que a I.A pode destruir a humanidade

Nos Estados Unidos, quase metade dos CEOs entrevistados acredita que a IA pode destruir a humanidade em um período de 5 a 10 anos.



O debate da inteligência artificial ganhou mais um capítulo. Em uma pesquisa envolvendo líderes empresariais dos Estados Unidos, é demonstrado que os CEOs estão receosos sobre o risco que a Inteligência Artificial pode apresentar para a humanidade em 5 a 10 anos, com alguns deles falando em destruição.

Veja também: Ainda tem medo da Inteligência Artificial? 5 usos dela provam o contrário

A pesquisa foi realizada em um evento virtual pelo Instituto de Liderança do Diretor Executivo, sendo este organizado por Jeffrey Sonnenfeld, professor da Yale e especialista em IA.

Quase metade dos CEOs entrevistados acreditam que a I. A. pode destruir humanidade

Com uma alta porcentagem, 42% dos diretores executivos entrevistados realmente acreditam que a Inteligência Artificial destruirá a humanidade dentro de 5 a 10 anos.

No total, foram 119 CEOs incluídos, com respostas envolvendo nomes como o CEO do Walmart, Doug McMillion, o CEO da Coca-Cola, James Quincy, e os líderes de empresas de TI como Xerox e Zoom. 58% não acreditam que a destruição da humanidade nunca poderia acontecer e afirmam não estar preocupados.

Por outro lado, 34% dos CEOs disseram que a IA poderia potencialmente destruir a humanidade em dez anos. Com uma visão mais pessimista, 8% comentam que poderia acontecer em um período de 5 anos.

Não é a primeira vez: especialistas em IA já alertam o risco

A porcentagem assustadora chega logo após alguns líderes da indústria de IA e acadêmicos se juntarem ao assinar uma declaração sobre o risco de extinção da IA.
“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, foi expresso na declaração.

Entre os assinantes, está o CEO da OpenAI, Sam Altman, Geoffrey Hinton, considerado o “padrinho de IA”, e até mesmo Bill Gates. O posicionamento foi feito no site Center for AI Safety, uma organização sem fins lucrativos de pesquisa e desenvolvimento de campo com sede em São Francisco.

Em sua página, é comentado que o seu objetivo é “reduzir os riscos de escala social associados à IA, realizando pesquisas de segurança, desenvolvendo o campo de pesquisadores de segurança de IA e defendendo padrões de segurança.”




Voltar ao topo

Deixe um comentário