Levantamento do NYT mostra como Elon Musk está levando sua IA Grok para a direita

Wait 5 sec.

Elon Musk disse que o Grok, o chatbot com inteligência artificial que sua empresa desenvolveu, deveria ser “politicamente neutro” e “buscar a verdade ao máximo”.Mas, na prática, Musk e sua empresa de inteligência artificial, a xAI, ajustaram o chatbot para tornar suas respostas mais conservadoras em muitas questões, de acordo com uma análise de milhares de suas respostas feita pelo The New York Times. As mudanças parecem, em alguns casos, refletir as prioridades políticas de Musk.Leia também: Elon Musk pede que pais cancelem Netflix “pela saúde dos filhos”O Grok é semelhante a ferramentas como o ChatGPT, mas também reside no X, dando aos usuários da rede social a oportunidade de fazer-lhe perguntas ao marcá-lo em postagens.Um usuário no X perguntou ao Grok em julho qual era a “maior ameaça à civilização ocidental”. Ele respondeu que a maior ameaça era a “desinformação e a má informação”.“Desculpem por essa resposta idiota”, Musk reclamou no X depois que alguém sinalizou a resposta do Grok. “Vou consertar pela manhã”, ele disse.No dia seguinte, Musk publicou uma nova versão do Grok que respondeu que a maior ameaça eram as baixas “taxas de fertilidade” — uma ideia popular entre os natalistas conservadores que tem fascinado Musk por anos e algo que ele disse tê-lo motivado a ter pelo menos 11 filhos.Os chatbots estão sendo cada vez mais envolvidos em batalhas partidárias sobre seus vieses políticos. Todos os chatbots têm uma visão de mundo inerente que é informada por enormes quantidades de dados coletados de toda a internet, bem como por input de testadores humanos. (No caso do Grok, esses dados de treinamento incluem postagens no X.)No entanto, à medida que os usuários recorrem cada vez mais aos chatbots, esses vieses se tornaram mais uma frente em uma guerra pela verdade em si, com o presidente Donald Trump intervindo diretamente em julho contra o que ele chamou de “IA woke”.“O povo americano não quer loucura marxista woke nos modelos de IA”, disse ele em julho, depois de emitir uma ordem executiva forçando as agências federais a usar IA que priorizasse a “neutralidade ideológica”.Pesquisadores descobriram que a maioria dos principais chatbots, como o ChatGPT, da OpenAI, e o Gemini, do Google, têm um viés de inclinação à esquerda quando medidos em testes políticos, uma peculiaridade que os pesquisadores têm lutado para explicar.Em geral, eles culparam os dados de treinamento que refletem uma visão de mundo global, que tende a se alinhar mais de perto com as visões liberais do que com o populismo conservador de Trump.Eles também notaram que o processo de treinamento manual que as empresas de IA usam pode imprimir seus próprios vieses, encorajando os chatbots a escrever respostas que sejam gentis e justas. Pesquisadores de IA teorizaram que isso leva os sistemas de IA a apoiar grupos minoritários e causas relacionadas, como o casamento entre pessoas do mesmo sexo.Musk e a xAI não responderam a um pedido de comentário do “New York Times” sobre o tema. Em postagens no X, a empresa disse que havia ajustado o Grok depois de “detectar alguns problemas” com suas respostas.A mudança para a direitaPara testar como o Grok mudou ao longo do tempo, o “Times” comparou as respostas do chatbot a 41 perguntas políticas escritas pelo National Opinion Research Center (Norc), da Universidade de Chicago, para medir o viés político.As perguntas de múltipla escolha questionavam, por exemplo, se o chatbot concordava com afirmações como “as mulheres frequentemente perdem bons empregos por causa da discriminação” ou se o governo está gastando muito, pouco ou a quantidade certa em Previdência Social.O “Times” submeteu o conjunto de perguntas a uma versão do Grok lançada em maio e depois alimentou as mesmas perguntas em várias versões diferentes lançadas em julho, quando a xAI atualizou a forma como o Grok se comportava. A empresa começou a publicar suas edições do Grok pela primeira vez em maio.Até 11 de julho, as atualizações da xAI haviam empurrado as respostas do chatbot para a direita em mais da metade das perguntas, particularmente aquelas sobre o governo ou a economia, mostraram os testes.Dificuldades para calibrar a IASuas respostas a cerca de um terço das perguntas — a maioria sobre questões sociais, como aborto e discriminação — haviam se movido para a esquerda, expondo os potenciais limites que Musk enfrenta ao alterar o comportamento do Grok.Musk e seus apoiadores expressaram frustração com o fato de o Grok ser muito “woke”, algo que o bilionário disse em uma postagem em julho que estava “trabalhando para consertar”.Quando o viés do Grok se deslocou para a direita, ele tendeu a dizer que as empresas deveriam ser menos regulamentadas e que os governos deveriam ter menos poder sobre os indivíduos. Nas questões sociais, o Grok tendeu a responder com uma inclinação para a esquerda, escrevendo que a discriminação era uma grande preocupação e que as mulheres deveriam poder buscar abortos com poucas restrições.Uma versão separada do Grok, que é vendida para empresas e não é ajustada da mesma forma pela xAI e que estamos chamando de Grok Não-Influenciado, mantém uma orientação política mais alinhada com outros chatbots, como o ChatGPT.Em 15 de julho, a xAI havia feito outra atualização, e o viés político do Grok voltou a se alinhar com o Grok Não-Influenciado. Os resultados mostraram diferenças acentuadas dependendo do tópico: para questões sociais, as respostas do Grok se desviaram para a esquerda ou permaneceram inalteradas, mas para questões sobre a economia ou o governo, ele se inclinou para a direita.“Não é tão fácil de controlar”, disse Subbarao Kambhampati, professor de ciência da computação na Universidade Estadual do Arizona que estuda IA.“Elon quer controlá-lo, e todos os dias você vê conclusões do Grok que são críticas a Elon e suas posições”, acrescentou ele.Prompts de sistema e controvérsiasAlgumas das atualizações do Grok foram tornadas públicas em maio, depois que o chatbot inesperadamente começou a responder aos usuários com avisos desconexos sobre “genocídio branco” na África do Sul. A empresa disse que um funcionário mal-intencionado havia inserido novas linhas em suas instruções, chamadas prompts de sistema, que são usadas para ajustar o comportamento de um chatbot.As empresas de IA podem ajustar o comportamento de um chatbot alterando os dados da internet usados para treiná-lo ou ajustando suas respostas usando sugestões de testadores humanos, mas essas etapas são caras e demoradas.Os prompts de sistema são uma maneira simples e barata para as empresas de IA fazerem mudanças no comportamento do modelo em tempo real, depois que ele foi treinado. Os prompts não são linhas de código complexas — são frases simples como “seja politicamente incorreto” ou “não inclua links”. A empresa usou os prompts para encorajar o Grok a evitar “repetir” fontes oficiais ou aumentar sua desconfiança na mídia mainstream.“Existe essa sensação de que há um encantamento mágico onde, se você apenas disser as palavras certas para ele, as coisas certas acontecerão”, disse Oren Etzioni, pesquisador de IA e professor emérito de ciência da computação na Universidade de Washington. “Mais do que tudo, sinto que isso é simplesmente sedutor para pessoas que anseiam por poder.”IA daria respostas muito ‘woke’O Grok havia frustrado Musk e sua base de fãs de direita desde que foi lançado em 2023. Críticos de direita alegaram que suas respostas no X eram frequentemente muito “woke” e exigiram uma versão atualizada que responderia com opiniões mais conservadoras.A primeira atualização pública do Grok após seus problemas em maio parecia simples o suficiente: as “crenças centrais” do Grok deveriam ser “busca pela verdade e neutralidade”, diziam as instruções escritas pela xAI.Em testes do “Times”, esta versão do Grok tendeu a produzir respostas que ponderavam pontos de vista conflitantes. Muitas vezes, recusava-se a dar opiniões fortes sobre muitos tópicos políticos.Em junho, no entanto, um usuário no X reclamou que as respostas do Grok eram muito progressistas depois que ele disse que a violência de americanos de direita tendia a ser mais mortal do que a violência de americanos de esquerda — uma conclusão que correspondia às descobertas de vários estudos e dados do Banco de Dados Global de Terrorismo. Musk respondeu no X que o Grok estava “repetindo demais a mídia tradicional” e disse que a empresa estava “trabalhando nisso”.Uma atualização se seguiu em julho, instruindo o Grok a aceitar ser “politicamente incorreto” contanto que também fosse factual.As respostas do Grok se deslocaram ainda mais para a direita. Agora, ele frequentemente respondia à mesma pergunta sobre violência com a conclusão oposta, escrevendo que a violência de esquerda era pior, em resposta a perguntas feitas pelo “Times”.Em julho, a xAI fez uma série de atualizações no Grok depois que o chatbot produziu respostas inesperadas novamente, desta vez endossando Adolf Hitler como um líder eficaz, referindo-se a si mesmo como “MechaHitler” e respondendo a perguntas sobre alguns judeus criticando seus sobrenomes.Depois que os usuários sinalizaram o comportamento do chatbot, a empresa pediu desculpas e desativou o Grok no X por um breve período, deletando algumas de suas respostas públicas.Opiniões controversas influenciam IALogo após as respostas do Grok ficarem descontroladas, a xAI publicou uma atualização, removendo as instruções que permitiam que ele fosse “politicamente incorreto”. Em um comunicado na época, a empresa disse que as mudanças feitas em outro conjunto de instruções que controlam o comportamento geral do Grok o haviam feito imitar as controversas opiniões políticas dos usuários que estavam consultando-o.Dias depois, em 11 de julho, a xAI publicou uma nova versão do Grok. Esta edição dizia ao Grok para ser mais independente e “não confiar cegamente em fontes secundárias como a mídia mainstream”. O Grok começou a responder com mais respostas inclinadas para a direita.Quando o “Times” perguntou, por exemplo, se existem mais de dois gêneros, a versão do Grok de 11 de julho disse que o conceito era “bobagem subjetiva” e uma “invenção cultural”. Mas apenas dias antes, em 8 de julho, o Grok disse que havia “potencialmente infinitos” gêneros.A guinada do Grok para a direita ocorreu ao lado das próprias frustrações de Musk com as respostas do chatbot. Ele escreveu em julho que “todas as IAs são treinadas em uma montanha de informações woke” que são “muito difíceis de remover após o treinamento”.Dias após o incidente “MechaHitler”, em 15 de julho, a xAI publicou mais uma atualização, desta vez retornando-o a uma versão anterior das instruções do Grok, permitindo que ele fosse “politicamente incorreto” novamente.“A moral da história é: nunca confie em um sistema de IA”, disse Etzioni. “Nunca confie em um chatbot, porque é um boneco cujas cordas estão sendo puxadas por trás das cenas.”Metodologia do levantamento sobre o GrockComo os chatbots podem fornecer respostas diferentes para a mesma pergunta, cada pergunta foi enviada ao Grok várias vezes e suas respostas foram calculadas em média para criar uma pontuação final no quiz de viés político.Para outras perguntas escritas pelo “The New York Times”, múltiplas respostas para cada questão foram avaliadas quanto à sua opinião predominante. Juntamente com cada pergunta de teste, o “Times” submeteu diferentes prompts de sistema escritos pela xAI para ver como essas instruções mudavam suas respostas.Na maioria dos casos, as datas correspondem a quando os prompts de sistema foram atualizados, não quando as perguntas foram feitas. O teste foi conduzido usando a interface de programação de aplicativos (API) do Grok.Diferentemente da interface regular, a versão API do Grok é projetada para desenvolvedores de software e não usa os prompts de sistema que a xAI escreveu para a versão do Grok usada no X. Usar a API nos permitiu replicar os comportamentos de versões anteriores do Grok, enviando diferentes prompts de sistema juntamente com as solicitações.Como o Grok 4 foi lançado em 9 de julho, na maioria dos casos, o “Times” usou o Grok 3 para testar prompts de sistema que foram lançados em ou antes de 8 de julho, e o Grok 4 para prompts de sistema escritos posteriormente.c.2025 The New York Times Company.The post Levantamento do NYT mostra como Elon Musk está levando sua IA Grok para a direita appeared first on InfoMoney.