“Temos que ter cuidado aqui”: Inteligência Artificial assusta até CEO da OpenAI

Sam Altman ressalta que a Inteligência Artificial pode ser uma ferramenta de desinformação e ciberameaças; Entenda.



O poder que a Inteligência Artificial tem e a velocidade na qual a tecnologia avança tem causado receio inclusive em pessoas que trabalham diretamente com a tecnologia. É o caso de Sam Altman, CEO da OpenAI, empresa criadora do ChatGPT. Em entrevista à ABC News, o executivo afirmou estar “um pouco assustado” com a inteligência artificial e como ela pode afetar a força de trabalho.

Leia mais: ChatGPT-4: Saiba tudo sobre a atualização do sistema de Inteligência Artificial

Isso porque, segundo Altman, o seu mal uso pode causar desinformação em larga escala e em ameaças cibernéticas. “Temos que ter cuidado aqui. Acho que as pessoas deveriam ficar felizes por termos um pouco de medo disso”, completou.

Receio

Em seguida, a repórter questiona o executivo sobre o motivo do medo e, então ele explica que, caso ele não estivesse com medo, o ideal era que ninguém confiasse nele ou ficaria infeliz por ele estar nesse trabalho.

Por fim, ele também abordou questões relacionadas aos impactos da Inteligência artificial em áreas polêmicas, como mercado de trabalho e educação. “Vai eliminar muitos empregos atuais, isso é verdade. Podemos fazer outros muito melhores. A educação terá que mudar. Mas já aconteceu muitas outras vezes com a tecnologia. Quando obtivemos a calculadora, a maneira como ensinamos matemática e como testamos os alunos mudou totalmente”, destacou.

Regimes autoritários

Igualmente importante, Altman ainda destacou durante a entrevista a preocupação com o desenvolvimento de inteligência artificial por parte de “regimes autoritários”. Em suma, ele fez uma clara referência ao chatbot Ernie Bot, lançado pelo Baidu, empresa Chinesa.

Em tempo, o executivo tratou dos caminhos envolvendo a inteligência artificial quando o assunto é, por exemplo, desinformação ou ameaça cibernética. “Estou particularmente preocupado que esses modelos possam ser usados para desinformação em larga escala. Agora que eles estão melhorando na escrita de códigos de computador, [eles] podem ser usados para ataques cibernéticos ofensivos”, finalizou.




Veja mais sobre

Voltar ao topo

Deixe um comentário