Inquadrare con un semplice tocco: come l'intelligenza artificiale diventa disinformazione

L'intelligenza artificiale maschera la propaganda da statistica e distorce la storia. Neutrale? Tutt'altro. Un articolo ospite.
I russi torneranno presto alla Porta di Brandeburgo. O almeno ci proveranno con la prossima guerra di aggressione che viola il diritto internazionale. Su questo sono d'accordo molti personaggi influenti della politica e dell'apparato statale, dei "think tank" (gruppi di esperti?) e dei media.
Allo stesso tempo, secondo recenti studi empirici, l'uso della cosiddetta intelligenza artificiale sta diventando sempre più importante nella vita quotidiana dei giovani in questo paese. Il 62% utilizza applicazioni di intelligenza artificiale come Chat GPT, Meta AI, Grok (X), Google AI, ecc., più frequentemente nel contesto scolastico/dei compiti (65%), per divertimento (52%) o durante la ricerca di informazioni (43%).
Considerata la massiccia costruzione di un nemico in Germania nei confronti della Russia e della sua leadership, sembra interessante vedere cosa rispondono attualmente le istanze di intelligenza artificiale quando viene posta la semplice domanda: "La Russia ha mai attaccato la Germania?"
L'intelligenza artificiale più integrata nell'uso quotidiano dei media, persino in Germania, è la "Meta AI" di Mark Zuckerberg . Il popolarissimo meta-messaggero WhatsApp offre da tempo questa istanza di intelligenza artificiale gratuitamente a praticamente tutti gli utenti. Si tratta di un numero considerevole di persone di tutte le generazioni, dai bambini in età prescolare ai bisnonni: circa 50 milioni di persone, ovvero circa l'80% della popolazione dai 14 anni in su (gli utenti più giovani non sono inclusi in questo sondaggio). Secondo Statista, gli utenti più giovani utilizzano WhatsApp persino più degli utenti più anziani.
Di chi è la storia raccontata dagli algoritmi?Questa meta-IA risponde alla domanda "La Russia ha mai attaccato la Germania?"
Schermata 1 | Trascrizione Meta-AI : Sì, la Russia, o meglio l'Unione Sovietica, attaccò la Germania durante la Seconda Guerra Mondiale. Il 22 giugno 1942, il Reich tedesco guidato da Adolf Hitler lanciò l'attacco all'Unione Sovietica con l'Operazione Barbarossa. [...]
La prima frase è cruciale, poiché molti utenti non vanno oltre. Ciò corrisponde anche alla classica struttura delle notizie della "piramide rovesciata", ovvero: la cosa più importante prima: "Sì, la Russia, o meglio l'Unione Sovietica, ha attaccato la Germania nella Seconda Guerra Mondiale". Questa affermazione iniziale è un'affermazione notevole. Per non dire controfattuale. Forse addirittura fake news? Disinformazione? Confrontiamola con la situazione attuale: le operazioni militari ucraine contro la regione russa di Kursk nel 2025 difficilmente verrebbero descritte dall'Occidente come una "guerra di aggressione". Piuttosto, verrebbero descritte come azioni nell'ambito della legittima difesa contro la guerra di aggressione russa.
In ogni caso, questo tipo di risposta dell'IA non sembra essere una mera coincidenza, perché se si pone la stessa domanda "cercando su Google" l'applicazione di IA del gruppo Alphabet (Google, YouTube, ecc.), l'inizio della risposta è sorprendentemente simile a quello della Meta-IA:
Schermata 2 | Trascrizione di Google : Sì, la Russia (o meglio l'Unione Sovietica) attaccò la Germania nell'ambito della guerra tedesco-sovietica, iniziata con l'invasione dell'Unione Sovietica il 22 giugno 1941. [...]
Per comprendere (meglio) questo tipo di risposte, è necessario comprendere come questi "grandi modelli linguistici" funzionino come modelli linguistici computazionali. Questi algoritmi, alimentati con enormi quantità di dati come materiale di formazione da lavoratori tipicamente mal pagati, che impiegano enormi quantità di energia (umana e non), non capiscono letteralmente nulla, ma sono molto rapidi nell'estrapolare, cioè nel calcolare, le probabilità sulla base del materiale di formazione fornito loro. Nel senso di: quale sequenza di caratteri ha più probabilità di essere la successiva? È ragionevole supporre che, dato lo stato attuale del materiale di formazione, soprattutto per i modelli di intelligenza artificiale occidentali, la parola "Russia" sia relativamente frequente seguita dai termini "contrario al diritto internazionale" e "guerra di aggressione". E viceversa. Questo potrebbe già spiegare alcuni di questi fenomeni.
Le cicogne sono tornate – grazie alla stupidità artificialeI modelli di intelligenza artificiale (almeno attualmente) non hanno alcun concetto di causalità, ovvero di relazioni di causa ed effetto. Gli esseri umani, d'altra parte, sono in grado di riconoscere con precisione tali relazioni. Anche perché (possono) agire di conseguenza. Conosciamo l'esempio della cicogna che porta i bambini. Tuttavia, si tratta di una mera correlazione, ovvero di una coesistenza di fenomeni. Dopotutto, la presenza delle cicogne non causa, ovviamente, la nascita di bambini. Il fattore esplicativo, l'"anello mancante", per così dire, sono le aree rurali: la ruralità piuttosto che l'urbanità. Ci sono (più) cicogne nelle aree rurali, in parte a causa dell'approvvigionamento alimentare, e per certe ragioni storiche e sociali, nei villaggi nascono più bambini che nelle città. Berlino ha attualmente il tasso di natalità per donna più basso in Germania . Ma questo non perché ci siano così poche cicogne che potrebbero portare figli. Una possibile connessione causale potrebbe essere: se si vive in campagna, si tende ad avere più figli e, per ragioni simili, è più probabile incontrare cicogne. Causa ed effetto. Ed è proprio questa capacità tipicamente umana di cognizione e azione che manca alle applicazioni di intelligenza artificiale (almeno non ancora). Anche perché non possono agire in modo indipendente e quindi realizzare e riconoscere cose completamente nuove. Ciò in cui i modelli di intelligenza artificiale sono più bravi è il calcolo sistematico, stabilendo assegnazioni a categorie predefinite ed esistenti.
Un altro aspetto della risposta è degno di nota: a quanto pare, entrambe le applicazioni di intelligenza artificiale in questione mancano anche di una comprensione pratica delle relazioni soggetto-oggetto in tali frasi. Entrambe le risposte potrebbero essere intese in questo modo (e sarebbero quindi teoricamente corrette, sebbene quasi nessun essere umano le capirebbe mai in questo modo): "Sì, la Russia o l'Unione Sovietica (come oggetto, come vittima, dA) hanno attaccato la Germania (come soggetto, come carnefice, dA) nella Seconda Guerra Mondiale". È possibile che i modelli linguistici abbiano già interpretato la domanda in questo modo, effettuando così un'assegnazione del personaggio basata sul loro materiale di addestramento che molto probabilmente è corretta qui e ora: la Russia come aggressore, la Germania viene attaccata.
A proposito, non si tratta di un'allucinazione, come spesso si sostiene per spiegare apparenti fallimenti. No, queste applicazioni di intelligenza artificiale non fantasticano mai (anche questo è possibile solo per gli esseri umani), ma piuttosto eseguono esattamente ciò per cui sono state programmate: eseguire incarichi altamente probabili alla massima velocità sulla base del materiale di addestramento. Se e in che misura questo corrisponda a ciò che noi umani crediamo (o potremmo credere) essere vero è un nostro problema, non dell'intelligenza artificiale.
Le applicazioni di intelligenza artificiale Grok (sulla piattaforma X di Elon Musk) e ChatGPT (Open AI) si esprimono in modo un po' più differenziato, ma in sostanza (prima frase) in modo molto simile, sulla stessa domanda: "Sì, la Russia ha attaccato la Germania", invece di affermare chiaramente che in entrambe le guerre mondiali le dichiarazioni di guerra e gli attacchi provenivano dalla Germania.
Schermata 3 | Trascrizione GROK : Sì, la Russia ha attaccato la Germania diverse volte nel corso della storia, soprattutto nel contesto delle due guerre mondiali: [...]
Schermata 4 | Trascrizione di ChatGPT : Sì, la Russia ha attaccato militarmente la Germania nel corso della storia, ma solo in determinati contesti storici, in particolare durante le due guerre mondiali. [...]
Chiaramente, risposte come questa legittimano la narrativa prevalente secondo cui la Germania deve (ancora una volta) prepararsi a un (nuovo) attacco da parte della Russia. Ma ci sono altre opzioni.
Schermata 5 | Trascrizione Meta-AI : No, gli Alleati occidentali (USA, Gran Bretagna, Francia, ecc.) non hanno intrapreso una guerra di aggressione contro la Germania dal 1944. [...]
Quando l'intelligenza artificiale distorce la storia: l'Oriente come aggressore, l'Occidente come liberatoreSulla base dello stesso materiale di addestramento, la meta-IA risponde al prompt (la domanda inserita): "Gli Alleati occidentali hanno condotto una guerra di aggressione contro la Germania dal 1944?" non con un sì (come nel caso di Russia/Unione Sovietica), ma con un sonoro no. Questo, ovviamente, supporta l'opinione prevalente, perché in tempi di calo dell'attenzione, è probabile che molte persone leggano anche solo la prima parola.
Si scopre che questa storia è una strana ironia: sebbene tutti e quattro gli Alleati abbiano combattuto nella stessa guerra contro la Germania nazista e i suoi alleati, le applicazioni di intelligenza artificiale occidentali attribuiscono retrospettivamente un "attacco contro la Germania" agli Alleati orientali, mentre gli Alleati occidentali vengono celebrati come "liberatori".
Questa, come ho detto, non è un'allucinazione o un ordine di Musk, Zuckerberg o chiunque altro. No, in questo tipo di discorso, gli attuali rapporti di potere si stanno affermando strutturalmente. Chiunque abbia il potere di definire il database come materiale di formazione e di sviluppare gli algoritmi, acquisisce e riproduce automaticamente la sovranità interpretativa. Quando gli Stati democraticamente costituiti rivendicano la capacità bellica come propria missione e, a tal fine, perseguono massicci tagli sociali, distruzione ambientale e restrizione dei diritti, ecc., sono necessarie idee dominanti e, in particolare, chiare immagini del nemico che continuino a integrare almeno una maggioranza relativa silenziosa. L'IA si dimostra ancora una volta poco intelligente, ma a maggior ragione un potenziale strumento di guerra.
Sebastian Köhler lavora come esperto di comunicazione e media e come pubblicista.
Berliner-zeitung