scorecardresearch ghost pixel



Sem consentimento? Google usará os seus dados em treinamento de IA

Políticas da empresa foram atualizadas. Agora, os treinamentos de IA contarão com dados públicos dos usuários. Entenda o que isso quer dizer.



No setor das inteligências artificiais (IA), as empresas costumam usar dados públicos de milhões de usuários para treinar suas IAs generativas. É o caso, por exemplo, do ChatGPT, que recebe treinamentos constantes a partir dessas informações. Você sabia disso? Pois é! Tudo indica que elas não vão parar por aqui.

Leia mais: E o Brasil? Pesquisa elege população mais ‘viciada’ em uso do celular

Agora, o Google está seguindo essa tendência, ao incluir mudanças na política de privacidade da companhia. A atualização afirma que informações pessoais vão passar a ser usadas para treinar os modelos de IA, não apenas modelos de linguagem. Confira ao longo do texto o que deve mudar na prática.

Dados públicos dos usuários vão ser empregados em treinamentos de IA

Com os ajustes na política de privacidade, a norma começa a englobar treinamentos de outras soluções apresentadas recentemente pela companhia. Anteriormente, aplicativos como o tradutor era um dos exemplos citados que usam informações públicas dos internautas para essa finalidade.

Agora, a política menciona que o Bard e o Cloud AI também vão contar com isso. O texto deixa bem claro que o Bard, o chatbot baseado em IA da Google, além de outros produtos com essa tecnologia e que ainda vão ser lançados, receberão esse tipo de treinamento. A mensagem da empresa ressalta que as informações vão ser usadas para melhorar os serviços e beneficiar o público com o desenvolvimento de novos produtos.

Essa medida se dá em meio a um cenário no qual muito se discute sobre a regulamentação dessa ferramenta. A pauta ressalta que essa coleta de dados não é feita de modo transparente e, com isso, as autoridades de diversos países passam a discutir sobre o processo: afinal, ele é legal ou não?

No mês passado, a OpenAI, que realiza uma série de treinamentos para aprimorar o seu chatbot, foi alvo de uma ação coletiva na Califórnia. Ela alegava que a companhia coletou dados pessoais em grande volume, sem a autorização dos usuários ou aviso prévio.

Na Itália, os reguladores foram ainda mais rigorosos e decidiram banir o recurso no país, sob a justificativa de que a OpenAI não tinha um motivo legal para extrair as informações dos usuários; contudo, a ferramenta foi liberada algum tempo depois, pois a empresa mostrou detalhes de como esse processo foi realizado.




Veja mais sobre

Voltar ao topo

Deixe um comentário