(Adobe Stock) Você está navegando pelo Instagram e conhece a "Dona Maria". Ela é carismática, usa um lenço no cabelo e reclama do preço do feijão com uma sinceridade que toca o coração. Essa mulher se torna um sucesso absoluto, já acumula mais de 100 milhões de visualizações. Clique aqui para seguir agora o canal de A Tribuna no WhatsApp! Mas aqui vem o primeiro momento chocante dessa história: a “Dona Maria” não existe de carne e osso. Ela é uma personagem criada inteiramente por inteligência artificial e foi desenhada para gerar engajamento e, muitas vezes, atacar adversários políticos de forma sutil ou direta. Trata-se do que chamamos de "influenciadora sintética". Em 2026, personagens como ela serão os grandes protagonistas das campanhas eleitorais. As inteligências artificiais guiadas pelos marqueteiros políticos criam milhares de perfis como o da “Dona Maria”, que imitam o comportamento humano. Eles testam uma frase ou um vídeo nesses modelos de IA para ver qual gera mais raiva, alegria ou esperança. É como se eles tivessem uma bola de cristal tecnológica que diz: "Se você postar isso, o eleitor de tal cidade vai adorar". Isso permite que as mensagens cheguem até você de forma bastante segmentada, quase como um anúncio de sapato que te persegue na internet, mas com ideias políticas. Estamos vivendo um momento em que temos a oportunidade de darmos um upgrade na nossa forma de consumir informação. É um convite desafiador que testará a nossa capacidade de sermos cidadãos mais atentos e informados. Se você se deparar com um vídeo ou postagem que parece feito sob medida para te deixar muito bravo ou muito feliz, pare e respire, pois a IA bem treinada é mestre em tocar nas nossas emoções. Você gostou de uma proposta? Em vez de acreditar no vídeo que recebeu no WhatsApp, faça uma busca rápida no site oficial do candidato ou em portais de notícias confiáveis para validar tal informação. Diante de um cenário onde a "Dona Maria" e tantos outros perfis sintéticos são moldados cirurgicamente para ecoar suas dores e esperanças, a pergunta que fica não é mais o que a tecnologia pode fazer, mas o que você decide aceitar. A inteligência artificial pode até mapear suas emoções, mas ela não possui o seu discernimento. A autorresponsabilidade começa no momento em que você escolhe não ser apenas um dado em uma planilha de engajamento, mas um filtro crítico entre a tela e a sua consciência. A sua opinião não pode ser subproduto de algoritmos desenhados para te manipular. Por isso, ser um cidadão atento em 2026 exige a coragem de duvidar do conforto das mensagens que parecem "perfeitas demais".