scorecardresearch ghost pixel



ChatGPT acelera planos de governos para regular a inteligência artificial

União Europeia foi a primeira a regulamentar esse tipo de tecnologia com a Lei de Inteligência Artificial, de 2021.



O lançamento do ChatGPT pela Open AI no ano passado trouxe à tona novamente os planos dos governos para regulamentar a inteligência artificial (IA). Apesar da ideia, ainda não existe um modelo pronto para lidar com o potencial da tecnologia de escancarar e criar novos desafios.

Leia mais: Vai dominar o mundo? Veja o que o criador do ChatGPT mais teme que aconteça

Além da vigilância em massa, desigualdade e até o risco físico aos seres humanos, a IA generativa tem originado novas provocações. Esse é o nome dado aos sistemas de chatbots que geram conteúdo, como o próprio ChatGPT.

“Precisamos regular isso, precisamos de leis”, afirma Janet Haven, diretora executiva da organização de pesquisa Data & Society.

“A ideia de que as empresas de tecnologia conseguem produzir o que quiserem e lançá-los ao mundo e assim, a sociedade se esforça para se ajustar, mas abrir caminho para isso é um retrocesso”, completa.

Propostas de regulamentação

A União Europeia tem a proposta mais avançada para regulamentar a tecnologia, mas ela ainda segue em debate. O bloco de países também aprovou, ainda em 2021, a Lei de Inteligência Artificial.

Se as novas regras forem implementadas, será criada uma proteção mais forte quando a IA estiver sendo usada em operações de aplicação de lei, decisões de emprego e outras funções de “alto risco”. Assim, o espaço será maior para experimentação de programas de menor risco.

O ChatGPT, por exemplo, poderia ser classificado como de alto risco. A classificação é motivo de debate, mas, no projeto, ela está focada na forma de uso da tecnologia, e não nela em si.

Autoridades dos Estados Unidos também trabalham para estabelecer de algumas regras, incluindo o projeto da “Declaração de Direitos da IA” apresentado pelo governo Biden em outubro de 2022.

Preocupações

Para os especialistas, o problema é que os projetos não abordam questões como o potencial de desinformação que esses programas possuem, o que pode dificultar a confiança em qualquer informação encontrada online.

Nos EUA, agências públicas e instituições financeiras já estão tentando barrar IAs generativas antes mesmo de sua implementação. Com a falta de uma diretriz clara, os limites têm sido estabelecidos pelas próprias empresas que criam os programas.

“Para mim, o que vai soar o alarme é se as organizações estão se direcionando para a comercialização sem falar sobre como estão garantindo que isso seja feito de maneira responsável”, afirma Steven Mills, diretor de ética de IA do Boston Consulting Group.

“Ainda não temos certeza do que essas tecnologias podem fazer”, completa.




Voltar ao topo

Deixe um comentário