Como mentem os algoritmos

Já não são os espiões nem os panfletos que devemos temer num período eleitoral. Bastam likes, cliques e vídeos de 30 segundos. Numa scrollada distraída, uma eleição pode ser contaminada, uma opinião moldada, uma sociedade dividida. A manipulação política através de algoritmos não é ficção nem futurologia: é o presente digital da democracia.
Os algoritmos que gerem as redes sociais e plataformas de conteúdo foram desenhados para captar a nossa atenção, prolongar o nosso tempo de permanência, antecipar os nossos desejos. O problema? O que retém a nossa atenção nem sempre é o que nos informa melhor. Pelo contrário: quanto mais emotivo, polarizador e provocador for o conteúdo, maior é o seu alcance. O algoritmo aprende connosco, mas também nos molda. E quando este ciclo é manipulado por interesses externos, transforma-se numa arma de interferência.
Foi o que vimos com a interferência russa nas eleições presidenciais dos Estados Unidos, no referendo do Brexit e em diversos momentos eleitorais europeus. Perfis falsos, bots, campanhas de desinformação profissionalizadas e estratégias digitais criadas para dividir, gerar desconfiança e minar o discurso público. O que é mais grave: a maioria destas campanhas não seria eficaz sem a cumplicidade silenciosa dos algoritmos que amplificam o que choca, o que inflama, o que mente.
A verdade é que os algoritmos não são neutros. Têm lógicas económicas, prioridades definidas, objetivos traçados. E quando não têm mecanismos de transparência, responsabilidade ou auditoria externa, tornam-se caixas negras com poder real sobre opiniões, comportamentos e decisões políticas. Quem controla o algoritmo controla, em parte, o espaço público.
A China é um caso paradigmático: plataformas como o TikTok obedecem a lógicas de censura e promoção de conteúdos consoante os interesses do regime. O perigo não é apenas para os utilizadores chineses — é para todos os que usam essas plataformas como fonte primária de informação. O mesmo se aplica a vídeos que negam a existência da guerra na Ucrânia, ao revisionismo histórico promovido por contas falsas ou ao discurso de ódio que se propaga em segmentos radicais das redes.
Portugal não está imune. A literacia digital continua baixa, a dependência das redes sociais é alta e o escrutínio das plataformas praticamente inexistente. Já vimos desinformação a circular sobre vacinas, imigração, guerra e política nacional. A interferência externa, através da desestabilização informativa, é um risco real também para a sociedade portuguesa.
A Europa está a reagir. Com o Digital Services Act, começa a impor-se um regime de maior transparência e responsabilização das plataformas. O AI Act poderá complementar esta resposta, impondo limites à inteligência artificial generativa e exigindo sistemas de verificação.
Se os algoritmos moldam o que vemos, só a educação pode moldar o modo como pensamos. A resposta não pode ser apenas legislativa — tem de ser também educativa. Sem literacia digital, seremos sempre alvos fáceis num tabuleiro invisível.
Esta é também a nova forma de guerra híbrida: constante e invisível. Não se trata apenas de proteger dados. Trata-se de proteger a democracia. Num mundo onde os algoritmos mentem, defender a verdade é uma escolha política. E um dever coletivo.
observador