Lei na Califórnia quer lembrar crianças que IA não é uma pessoa
Um projeto de lei apresentado pelo senador da Califórnia (EUA), Steve Padilla, pode obrigar empresas de inteligência artificial (IA) a emitir alertas periodicamente às crianças informando que um chatbot é uma IA e não um humano.
O texto — que pode ser analisado a partir de 2 de março — define chatbot como um “personagem criado pelo usuário que, habilitado por inteligência artificial, é capaz de se envolver em diálogos abertos com um usuário e parece ter personalidade e perspectivas únicas”.
A proposta quer proteger as crianças de “aspectos viciantes, isolantes e influentes” da IA e tem por objetivo “exigir que uma plataforma de mídia social tome várias medidas para impedir o cyberbullying de menores”.
“Nossos filhos não são ratos de laboratório para empresas de tecnologia fazerem experimentos às custas de sua saúde mental”, disse o senador Padilla em um comunicado à imprensa. “Precisamos de proteções de senso comum.”
Leia Mais:
Estudo mostra que chatbots podem ser induzidos a dar respostas falsas
Candidato a prefeito prometeu deixar IA governar cidade
Chatbots deviam aprender a pedir ajuda, diz executivo da Microsoft
IA: o que prevê a lei?
Uma das propostas obriga as empresas de IA a fornecer relatórios anuais ao Departamento Estadual de Serviços de Saúde com detalhes das interações das crianças com a plataforma. Além disso, a companhia teria que submeter o chatbot a auditorias regulares por terceiros para garantir a conformidade com a lei.
O documento deverá apontar as seguintes informações:
O número de vezes que o operador detectou manifestações de ideação suicida por parte de utilizadores menores de idade;
O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador tentou suicídio;
O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador morreu por suicídio;
O número de vezes que um chatbot mencionou ideações ou ações suicidas ao usuário.
No ano passado, um pai processou a Character.AI alegando que o filho adolescente morreu por suicídio após trocar interações com o chatbot que ele definiu como “irracionalmente perigoso”. Após o incidente, a empresa anunciou que vai criar um modelo de IA que bloqueará saídas “sensíveis ou sugestivas”, como lembra o The Verge.
O post Lei na Califórnia quer lembrar crianças que IA não é uma pessoa apareceu primeiro em Olhar Digital.