Google atualiza política e permite uso de IA em áreas de alto risco
O Google atualizou sua política de uso para esclarecer que os clientes podem empregar sua inteligência artificial (IA) generativa para tomar “decisões automatizadas” em áreas de “alto risco”, como saúde, crédito, emprego, moradia, seguro e assistência social, desde que haja supervisão humana.
A nova política, publicada esta semana, permite o uso da IA em decisões que podem afetar significativamente os direitos dos indivíduos, desde que um ser humano esteja no processo de supervisão para garantir que não ocorram impactos negativos.
Antes dessa atualização, a empresa tinha política mais restritiva, que proibia o uso de IA generativa para decisões automatizadas de alto risco. Agora, o Google especifica que a supervisão humana sempre foi um requisito e a recategorização dos termos visa tornar as diretrizes mais claras para os usuários.
Leia mais:
Inteligência artificial: conheça os pontos negativos e perigos da IA
5 formas de usar as IAs para te ajudar nos estudos
Prime Video terá resumos de episódios de séries gerados por IA
Concorrentes do Google são mais rígidos
Em comparação com seus concorrentes, como OpenAI e Anthropic, o Google tem abordagem mais flexível;
A OpenAI, por exemplo, proíbe o uso de sua IA em áreas, como crédito, emprego, moradia e outras decisões sensíveis;
Já a Anthropic permite o uso de IA em áreas, como saúde e seguros, mas com supervisão mais rigorosa por profissionais qualificados.
O uso de IA em decisões automatizadas tem gerado preocupações regulatórias sobre, especialmente, a possibilidade de discriminação e vieses nos resultados. Na União Europeia (UE), sistemas de IA de alto risco estão sujeitos a regulamentações rigorosas, incluindo auditorias e supervisão.
Nos Estados Unidos, estados, como Colorado, e cidades, como Nova York, implementaram leis que exigem a divulgação e auditoria de sistemas de IA de alto risco.
O post Google atualiza política e permite uso de IA em áreas de alto risco apareceu primeiro em Olhar Digital.