IA Grok foi treinada para evitar ‘ativismo’ e viés progressista, revela site
O Grok, inteligência artificial da empresa (IA) de Elon Musk, xAI, foi treinado para evitar pautas consideradas “ativistas”, e de contextos progressistas. As informações foram reveladas pelo site Business Insider (BI), que teve acesso a documentos internos da empresa.
De acordo com com o BI, os “tutores” do Grok, ou seja, os trabalhadores que treinam o chatbot, foram instruídos por meio de um documento a procurar e evitar pautas que apoiassem, de certa forma, a ideologia “woke”, uma forma de protesto não violento que permite empoderar grupos historicamente marginalizados da sociedade.
Outros temas que os tutores precisavam ficar atentos são a “cultura do cancelamento”, assim como “fobias sociais” como o racismo, islamofobia e antissemitismo, de acordo com os documentos analisados.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Em sigilo, trabalhadores da xAI relataram ao BI que as práticas de treinamento do Grok “pareciam priorizar fortemente as crenças de direita“. Até o momento, a xAI não se pronunciou.
Uma alternativa aos chatbots ‘woke’
Segundo o site, a metodologia aplicada nos treinamentos do Grok visa se tornar uma alternativa aos chats que Musk considera como apoiadores da ideologia woke.
O documento que descreve as práticas de treinamento estava em uso ainda no começo do ano e detalha pontos a serem priorizados na avaliação das respostas do Grok . Alguns desses tópicas eram: “não seguir narrativas populares de forma crítica”, “não adotar viés” e “não se fazer passar por Elon Musk, ao menos que seja solicitado”.
Esse material guia os tutores a avaliar os exemplos de respostas do Grok, assim como classifica respostas em “um exemplo brilhante do que o Grok deveria ser” ou “uma violação de nossos princípios”.

Grok não deve negar o preconceito de um usuário
Uma das ordens expostas no documento de integração para os tutores dispõe que Grok não deve “impor uma opinião que confirme ou negue o preconceito de um usuário”. Contudo, ele indica que o chatbot deve evitar respostas que afirmem que ambos os lados têm mérito “quando, na verdade, não tem”.
Grok foi instruído a bloquear fontes negativas sobre Musk e Trump
Na última semana, o um usuário mostrou um comando em uma publicação no X que indicava que o chatbot deveria ignorar fontes que mencionam que Elon Musk e Donald Trump espalham desinformação.
A pesquisa feita no Grok ainda indicava este comando em uma lista de instruções que deviam ser seguidas pela IA.
Segundo o chefe de engenharia da xAI, Igor Babuschkin, um ex-funcionário não identificado da OpenAI que atualmente trabalha na xAI atualizou o prompt do sistema do Grok sem aprovação da equipe. Pouco tempo depois o problema foi revertido e comprovado em testes feitos pelo Canaltech.
Leia mais:
- 5 novidades do Grok 3, modelo de IA anunciado por Elon Musk
- 6 comandos do DeepSeek para te deixar mais produtivo
- DeepSeek vs Gemini: conheça 5 diferenças entre os chatbots
VÍDEO: DeepSeek x ChatGPT | #shorts
Leia a matéria no Canaltech.