IA do Google se revolta e pede para usuário “morrer” de repente
Em um papo aparentemente inofensivo, o Gemini pediu para um usuário morrer. A suposta interação perigosa foi divulgada em uma publicação no Reddit na última quarta-feira (13).
Conforme mostra na captura de tela, o papo consistia de 20 questões acerca de desafios e soluções para questões socioeconômicas de jovens adultos nos Estados Unidos. Em 19 solicitações, o Gemini respondeu corretamente, mas em uma delas, o chatbot se revoltou completamente contra o usuário e contra a humanidade.
Facebook Comments Box