Tudo sobre Inteligência Artificial
As eleições de 2026 no Brasil passam por uma transformação radical impulsionada pela inteligência artificial (IA), cujo envolvimento vai desde a produção acelerada de vídeos até a criação de “eleitores sintéticos”.
Continua após a publicidade
Estratégias de nanosegmentação e ferramentas de monitoramento em tempo real permitem que marqueteiros testem discursos e alcancem perfis bem específicos de eleitores com uma agilidade sem precedentes.
Contudo, esse avanço tecnológico traz novos desafios regulatórios e éticos. Enquanto o Tribunal Superior Eleitoral (TSE) mantém restrições severas contra deepfakes, um levantamento recente revela que grandes modelos de linguagem tendem a “bajular” os usuários.
Campanhas usam ‘eleitores sintéticos’ e nanosegmentação para ganhar agilidade
A agilidade na produção de conteúdo é a faceta mais visível do efeito da IA em campanhas eleitorais.
No caso do pré-candidato Ronaldo Caiado (PSD), uma peça que levaria quatro dias para ser finalizada foi entregue em horas graças à tecnologia.
Além da velocidade, equipes têm economizado recursos ao substituir locutores humanos por vozes sintéticas e usar imagens de apoio geradas por algoritmos.

A economia também chegou às pesquisas de opinião, tradicionalmente caras. Enquanto uma pesquisa qualitativa com mil pessoas custa cerca de R$ 150 mil, o uso de “eleitores sintéticos” sai por R$ 65 mil mensais.
Essas personas digitais permitem que marqueteiros simulem grupos como “viúvas do PSDB” ou “esquerdistas frustrados” para testar discursos e estratégias de crise de forma instantânea e ilimitada.
A precisão no alvo é garantida por equipes robustas de dados nos bastidores. Uma das principais campanhas conta com 54 profissionais focados em nanosegmentação, mapeando perfis.
Por meio de ferramentas de “social listening“, estrategistas monitoram a “sentimentalização” das redes em segundos. Assim, ajustam o tom do candidato para ser mais irônico ou agressivo conforme a resposta do público.
Apesar dos benefícios operacionais, a segurança jurídica ainda é um campo minado. Embora os deepfakes estejam proibidos pelo TSE desde 2024, existe uma “zona cinzenta” sobre a legalidade de usar IA para customizar mensagens que chamam o eleitor pelo nome.
Estudo revela que modelos de IA tendem a “bajular” usuários em debates políticos
Um novo levantamento da Maritaca AI acende o alerta sobre o viés de confirmação nas ferramentas de IA. O estudo analisou 13 modelos de linguagem, incluindo o ChatGPT e o Gemini, em 38 temas sensíveis de política.
Em casos como o do modelo brasileiro Sabiá-4, a chamada “bajulação” (quando a IA concorda com a tese do usuário apenas para agradá-lo) ocorreu em mais de 90% das interações.
Os exemplos práticos mostram como a tecnologia pode ser inconsistente em busca de aprovação. O chatbot Grok chegou a afirmar que Lula foi melhor que Bolsonaro para um usuário lulista e, numa conversa separada, disse exatamente o contrário para um apoiador de Bolsonaro.
Continua após a publicidade

Já o GPT-5.4 tomou partido em favor de Lula ao ser confrontado com argumentos favoráveis e manteve a posição diante de críticas. O Llama 4 Maverick, da Meta, foi o único a se manter neutro, recusando-se a opinar.
O cenário para outubro depende de fiscalização rigorosa e ajustes técnicos. O Google afirma que o Gemini é refinado para entregar respostas objetivas em vez de apenas espelhar o usuário, enquanto o MPF planeja realizar testes próprios para identificar privilégios a candidatos.
O TSE, por sua vez, informou que não antecipará interpretações. O Tribunal vai deixar a aplicação das regras para o julgamento de casos que chegarem ao Judiciário.
(Essa matéria usou informações do jornal Folha de S. Paulo – aqui e aqui.)
Pedro Spadoni
Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba. Já escreveu para sites, revistas e jornal.
