Modelos de IA têm viés ideológico? A resposta não é tão simples
Especialistas avaliam as alegações de que chatbots são "woke" após medida da administração Trump

O presidente Donald Trump busca posicionar os Estados Unidos como líder em inteligência artificial (IA) e, para isso, propõe remover dos modelos de IA o que ele considera "ideais progressistas" (woke).
Na quarta-feira (23), Trump anunciou a assinatura de uma ordem executiva que proíbe o governo federal de adquirir tecnologia de IA "infundida com viés partidário ou agendas ideológicas, como a teoria crítica da raça".
Essa medida sinaliza uma expansão de sua campanha contra a diversidade, equidade e inclusão (DEI), agora alcançando uma tecnologia que, para alguns, será tão crucial para encontrar informações online quanto os motores de busca. A iniciativa faz parte do plano de ação de IA da Casa Branca, divulgado na mesma quarta, um conjunto de propostas e recomendações políticas para impulsionar o avanço dos EUA na IA.
A ordem executiva, intitulada "prevenindo a IA progressista no governo federal", exige que os grandes modelos de linguagem de IA (LLMs) usados pelo governo – o tipo de modelo que alimenta chatbots como o ChatGPT – sigam os "princípios de IA imparcial" de Trump, incluindo que a IA deve ser "buscadora da verdade" e mostrar "neutralidade ideológica".
"De agora em diante, o governo dos EUA lidará apenas com IA que busca a verdade, a justiça e a estrita imparcialidade", afirmou Trump durante o evento.
IA pode Ser enviesada?
Isso levanta uma questão importante: a IA pode ter viés ideológico ou ser "progressista"? A resposta não é tão simples, segundo especialistas.
Modelos de IA são, em grande parte, um reflexo dos dados nos quais são treinados, do feedback que recebem durante o processo de treinamento e das instruções que lhes são dadas. Tudo isso influencia se um chatbot de IA fornece uma resposta que parece "progressista", um termo que é, em si, subjetivo. É por isso que o viés em geral, político ou não, tem sido um ponto sensível para a indústria de IA.
"Os modelos de IA não têm crenças ou preconceitos como as pessoas, mas é verdade que podem exibir preconceitos ou tendências sistemáticas, principalmente em resposta a certas consultas", disse à CNN Oren Etzioni, ex-CEO da Allen Institute for Artificial Intelligence, uma organização sem fins lucrativos de pesquisa em IA com sede em Seattle.
A luta de Trump contra a tecnologia "progressista"
A ordem executiva de Trump inclui dois "princípios de IA imparcial". O primeiro, chamado "busca da verdade", afirma que os LLMs – os modelos que alimentam chatbots como o ChatGPT – devem "ser verdadeiros na busca de informações ou análises factuais". Isso significa que eles devem priorizar fatores como precisão histórica e investigação científica ao serem solicitados a fornecer respostas factuais, de acordo com a ordem.
O segundo princípio, "neutralidade ideológica", afirma que os LLMs usados para o trabalho do governo devem ser "neutros" e "não partidários" e que não devem manipular respostas "em favor de dogmas ideológicos como DEI".
"No contexto da IA, DEI inclui a supressão ou distorção de informações factuais sobre raça ou sexo; manipulação da representação racial ou sexual nas saídas do modelo; incorporação de conceitos como teoria crítica da raça, transgeneridade, viés inconsciente, interseccionalidade e racismo sistêmico; e discriminação com base em raça ou sexo", afirma a ordem executiva.
Os desenvolvedores não devem "intencionalmente codificar julgamentos partidários ou ideológicos" nas respostas do modelo, a menos que o usuário os solicite, diz a ordem.
O foco principal são os modelos de IA adquiridos pelo governo, pois a ordem afirma que o governo federal deve "hesitar em regular a funcionalidade dos modelos de IA no mercado privado". No entanto, muitas grandes empresas de tecnologia têm contratos com o governo; Google, OpenAI, Anthropic e xAI, por exemplo, receberam US$ 200 milhões cada para "acelerar a adoção de capacidades avançadas de IA pelo Departamento de Defesa" no início deste mês.
A nova diretriz se baseia nas longas alegações de Trump de viés na indústria de tecnologia. Em 2019, durante o primeiro mandato de Trump, a Casa Branca instou os usuários de redes sociais a registrar um relatório se acreditassem ter sido "censurados ou silenciados online" em sites como Twitter (agora X) e Facebook devido a viés político. No entanto, dados do Facebook de 2020 revelaram que o conteúdo de notícias conservador superou significativamente o conteúdo mais neutro na plataforma.
Trump também assinou uma ordem executiva em 2020 visando as empresas de redes sociais depois que o X rotulou dois de seus posts como potencialmente enganosos.
Na quarta-feira, o senador Edward Markey (D-Massachusetts) disse que enviou cartas aos CEOs da Alphabet (controladora do Google), Anthropic, OpenAI, Meta, Microsoft e xAI, rebatendo as "ações anti-progressistas de IA" de Trump.
"Mesmo que as alegações de viés fossem precisas, o esforço dos republicanos para usar seu poder político – tanto através do poder executivo quanto de investigações congressuais – para modificar a fala das plataformas é perigoso e inconstitucional", escreveu ele.
Por que chatbots de IA respondem da maneira que respondem
Embora viés possa significar coisas diferentes para pessoas diferentes, alguns dados sugerem que as pessoas veem tendências políticas em certas respostas de IA.
Um artigo da Stanford Graduate School of Business publicado em maio descobriu que os americanos veem as respostas de certos modelos populares de IA como inclinadas para a esquerda. Pesquisas da Brown University de outubro de 2024 também descobriram que as ferramentas de IA podem ser alteradas para assumir posições sobre tópicos políticos.
"Não sei se você quer usar a palavra 'enviesado' ou não, mas definitivamente há evidências de que, por padrão, quando não são personalizadas para você… os modelos, em média, assumem posições de esquerda", disse Andrew Hall, professor de economia política na Stanford Graduate School of Business que trabalhou na pesquisa de maio.
Isso provavelmente se deve à forma como os chatbots de IA aprendem a formular respostas: os modelos de IA são treinados em dados, como texto, vídeos e imagens da internet e de outras fontes. Em seguida, humanos fornecem feedback para ajudar o modelo a determinar a qualidade de suas respostas.
Modificar modelos de IA para ajustar seu tom também pode resultar em efeitos colaterais indesejados, disse Himanshu Tyagi, professor do Indian Institute of Science e co-fundador da empresa de IA Sentient, à CNN anteriormente. Um ajuste, por exemplo, pode causar outra mudança inesperada na forma como um modelo funciona.
"O problema é que nossa compreensão de destravar uma coisa enquanto afeta outras não existe", disse Tyagi à CNN no início deste mês. "É muito difícil."
O chatbot Grok AI de Elon Musk cuspiu antissemitismo em resposta a prompts de usuários no início deste mês. O surto ocorreu depois que a xAI – a empresa de tecnologia liderada por Musk por trás do Grok – adicionou instruções para o modelo "não se esquivar de fazer afirmações que são politicamente incorretas", de acordo com prompts do sistema para o chatbot publicamente disponíveis na plataforma de desenvolvedores de software Github e notados pelo The Verge.
A xAI pediu desculpas pelo comportamento do chatbot e o atribuiu a uma atualização do sistema.
Em outros casos, a IA tem tido problemas com a precisão. No ano passado, o Google suspendeu temporariamente a capacidade de seu chatbot Gemini de gerar imagens de humanos depois que foi criticado por criar imagens que incluíam pessoas de cor em contextos historicamente imprecisos.
Hall, o professor de Stanford, tem uma teoria sobre por que os chatbots de IA podem produzir respostas que as pessoas consideram inclinadas para a esquerda: as empresas de tecnologia podem ter colocado proteções extras para evitar que seus chatbots produzam conteúdo que possa ser considerado ofensivo.
"Acho que as empresas estavam meio que se protegendo contra a reação da esquerda por um tempo, e essas políticas podem ter criado ainda mais esse tipo de resultado inclinado", disse ele.
Especialistas dizem que descrições vagas como "viés ideológico" tornarão desafiador moldar e aplicar novas políticas. Haverá um novo sistema para avaliar se um modelo de IA tem viés ideológico? Quem tomará essa decisão? A ordem executiva diz que os fornecedores cumpririam a exigência divulgando o prompt do sistema do modelo, ou conjunto de instruções de backend que guiam como os LLMs respondem às consultas, juntamente com suas "especificações, avaliações ou outra documentação relevante".
Mas ainda restam dúvidas sobre como o governo determinará se os modelos aderem aos princípios. Afinal, evitar alguns tópicos ou perguntas completamente pode ser percebido como uma resposta política, disse Mark Riedl, professor de computação do Georgia Institute of Technology.
Também pode ser possível contornar restrições como essas simplesmente comandando um chatbot para responder como um democrata ou republicano, disse Sherief Reda, professor de engenharia e ciência da computação da Brown University que trabalhou em seu artigo de 2024 sobre IA e viés político.
Para as empresas de IA que buscam trabalhar com o governo, a ordem pode ser mais um requisito que as empresas teriam que cumprir antes de lançar novos modelos e serviços de IA, o que poderia atrasar a inovação – o oposto do que Trump está tentando alcançar com seu plano de ação de IA.
"Esse tipo de coisa… cria todo tipo de preocupações e responsabilidades e complexidade para as pessoas que desenvolvem esses modelos – de repente, eles têm que desacelerar", disse Etzioni.


