Faccio più danni io col mio portatile...
Anche le regole del Grande Gioco sono riscritte dall'Intelligenza Artificiale.
Durante il suo primo, teso, incontro con James Bond, il giovane Q di Ben Whishaw lo gela con una battuta che definisce un'epoca: I'll hazard I can do more damage on my laptop, sitting in my pyjamas before my first cup of Earl Grey than you can do in a year in the field.
Azzarderei che posso fare più danni io col mio portatile, seduto in pigiama, prima della mia prima tazza di Earl Grey, che lei con un anno di lavoro sul campo.
Tredici anni fa era solo una battuta fulminante. Oggi è la didascalia di una nuova realtà. Per secoli, l'intelligence e il Grande Gioco1 sono state arti squisitamente umane, come nei racconti di Ashenden di Somerset Maugham o nel Kim di Rudyard Kipling, consumate tra i sussurri di un club londinese o nel fumo di un caffè a Instanbul. Si fondavano sulla capacità di leggere un'esitazione, di comprare un'anima, di coltivare un tradimento. Il fattore decisivo era la comprensione della fragile, corruttibile natura umana. E, logicamente, l’accesso alle informazioni.
Poi venne la macchina.
Enigma a Bletchey Park
Fu nei capannoni industriali di Bletchley Park che le cose presero per sempre una piega diversa, ma la storia non comincia lì. Cominciò invece in Polonia, negli anni '30, quando i matematici del Biuro Szyfrów, l'Ufficio Cifre polacco, riuscirono in un'impresa quasi impossibile. Guidati dal genio di Marian Rejewski, non solo dedussero la struttura interna dei rotori di Enigma - il fiore all'occhiello della crittografia nazista, un congegno elettro-meccanico capace di generare un numero immenso di chiavi di cifratura - ma costruirono le prime macchine capaci di decrittarne i messaggi: le "bomby kryptologiczne". Fu questo lavoro pionieristico, condiviso con gli alleati britannici e francesi alla vigilia dell'invasione del 1939, a gettare le fondamenta su cui Bletchley Park avrebbe costruito il proprio mito.
A Bletchley nacque la risposta industriale ad Enigma, nome in codice ULTRA. Alan Turing e Gordon Welchman concepirono una prima la soluzione teorica basata su "cribs" (frammenti di testo probabili) e poi riuscirono a progettare macchine per la gestione automatizzata del processo di decrittazione delle comunicazioni naziste. Sulle prime erano “solo” colossali macchine elettromeccaniche monofunzionali. Ma poi fu creato Colossus, il primo vero computer elettronico e programmabile, creato a Bletchley Park per decifrare un altro cifrario nazista, molto complesso: il “Lorenz” usato dall'Alto Comando tedesco.
A Bletchley Park, quasi 9.000 persone, di cui il 75% donne, lavoravano su tre turni, 24 ore su 24, in un sistema a ciclo continuo. Il lavoro di spionaggio si era trasformato in un processo industriale.
Quella volta andò bene e la macchina degli alleati ebbe la meglio su quella tedesca. Prima ancora di essere vinta per una superiore potenza di fuoco, la Seconda Guerra Mondiale vide la vittoria accelerata in modo decisivo da una superiore potenza di calcolo, un vantaggio strategico che, secondo alcuni storici, accorciò il conflitto di almeno due anni.
La terza onda: gli oracoli algoritmici
La nuova arena non è più su un nebbioso “Ponte delle Spie” o nei capannoni di Bletchley Park, ma nel ronzio di data center nascosti a centinaia di metri di profondità nel Mar Glaciale Artico oppure, come ipotizza Amazon, orbitanti come satelliti intorno alla Terra. Non è fantascienza; è il nuovo campo di battaglia strategico globale.
Il potere, oggi, appartiene a chi sa leggere il futuro in un oceano di dati. Accanto a giganti della difesa come Palantir Technologies, la cui simbiosi con il Pentagono e la CIA è un pilastro dell'architettura di sicurezza occidentale – nata con il sostegno finanziario di In-Q-Tel, il braccio di venture capital della CIA , e consolidata da contratti miliardari come quello da 480 milioni di dollari per il Progetto Maven – prospera un ecosistema di aziende specializzate.
Società come Recorded Future o Dataminr non vendono segreti trafugati, ma qualcosa di molto più prezioso: threat intelligence in tempo reale.
I loro sistemi di IA ingeriscono, analizzano e correlano senza sosta un volume di informazioni che la mente umana non può neppure concepire: notiziari globali in decine di lingue, flussi di dati satellitari, forum del dark web, transazioni finanziarie, segnali di intelligence (SIGINT). Non cercano un'informazione specifica, ma un pattern. Un segnale debole, un'anomalia statistica che preceda l'evento.
L'obiettivo finale è laa dottrina militare nota come Decision Dominance: la capacità di completare il ciclo OODA (Osserva, Orienta, Decidi, Agisci) – un modello sviluppato dal colonnello dell'U.S. Air Force John Boyd – a una velocità tale da paralizzare l'avversario. L'IA non serve solo a sapere che un colpo di stato è probabile; serve a saperlo con ore di anticipo, fornendo ai decisori una serie di contromisure già simulate e valutate. Permette di pre-posizionare risorse, congelare capitali, evacuare un'ambasciata, prima ancora che l'avversario abbia deciso la sua prima mossa.
L'intuizione del singolo agente, per quanto brillante, soccombe di fronte alla schiacciante superiorità statistica di un sistema che esegue migliaia di wargames simulati, come accade per lo stretto di Taiwan, calcolando le probabilità di successo di un'invasione cinese in base a meteo, logistica e persino al sentiment sui social network.
Nella Nebbia della Sfiducia Artificiale
L'avvento dei grandi modelli linguistici (LLM) ha introdotto nel Grande Gioco una dualità inquietante. Da un lato, ha potenziato a dismisura l'OSINT (Open Source Intelligence). Un analista ora può chiedere a un'IA di riassumere le comunicazioni di un gruppo di attivisti, tracciare la diffusione di una narrativa online o identificare i principali influencer su un dato argomento. Mesi di lavoro umano compressi in pochi minuti.
Dall'altro, la stessa tecnologia è diventata la più potente fabbrica di disinformazione della storia. Stati e attori non statali possono orchestrare campagne di influenza generando testi, immagini e video tanto perfetti, quanto falsi. L'obiettivo non è più solo diffondere una menzogna. È inquinare il pozzo dell'informazione a tal punto da generare una “nebbia di sfiducia” paralizzante, un'arma strategica che erode la coesione sociale del nemico senza sparare un colpo. Il cittadino medio, bombardato da narrazioni contraddittorie, smette di credere a tutto, diventando molto più facile da manipolare. Oppure, esaperando posizioni estreme, si tenta la frattura della matrice sociale. Qualche esempio?
Mosca ha evoluto le tattiche della sua famigerata Internet Research Agency. Oggi, la campagna “Doppelgänger” utilizza reti di bot potenziati da IA per creare cloni ad alta fedeltà di siti di notizie occidentali (Der Spiegel, Fox News, Le Monde) e diffondere narrazioni pro-Cremlino sulla guerra in Ucraina o per interferire nei processi elettorali, sfruttando ogni divisione sociale esistente.
In una mossa che è al contempo una difesa e un'inevitabile escalation, l'Ucraina ha risposto alla Russia sullo stesso piano. L'IT Army of Ukraine, una vasta rete semi-decentralizzata di attivisti digitali appoggiata dal governo, orchestra campagne di contro-disinformazione e attacchi DDoS contro le infrastrutture digitali russe. Fornisce strumenti che automatizzano gli attacchi, “democratizzando” di fatto l'hacktivismo e rendendo il campo di battaglia digitale ancora più caotico. Di questo, ne riparleremo…
Pechino impiega l'IA in campagne come “Spamouflage”. Non si limita a diffondere propaganda, ma utilizza anche deepfake e avatar IA per creare falsi notiziari, come quelli della fittizia “Wolf News”, e video-testimonianze che inondano i social media. L'obiettivo è duplice: promuovere la narrativa del Partito Comunista e screditare le voci critiche, facendole annegare in un mare di rumore digitale.
La Corea del Nord, attraverso gruppi di hacker come il Lazarus Group, sta integrando l'IA per affinare le sue operazioni. Gli LLM vengono usati per creare email di spear-phishing estremamente personalizzate e convincenti, superando le barriere linguistiche e culturali per ingannare dipendenti di aziende strategiche o del settore delle criptovalute, la cui refurtiva finanzia il regime.
Logicamente, anche le democrazie occidentali utilizzano queste tecnologie. Solo per fare due altri esempi, la 77ª Brigata dell'esercito britannico e lo US Cyber Command impiegano l'IA per analizzare le campagne avversarie e per condurre operazioni psicologiche (PSYOP) in teatri stranieri. In questi contesti il confine tra difesa informativa e propaganda attiva diventa piuttosto sottile.
Battaglie Algoritmiche
Una maggiore potenza e velocità di calcolo si traducono sempre in vantaggi sul campo di battaglia, laddove il “danno da salotto” di Q si manifesta nella sua forma più tragica. La kill chain – il processo che va dal rilevamento di un bersaglio alla sua neutralizzazione – si sta riformulando su procedure sempre più veloci e già in grado di fare a meno del controllore umano.
Un drone sorvola il campo di battaglia. L'IA a bordo analizza un feed video in tempo reale. La firma termica e la sagoma corrispondono a un lanciamissili nemico. L'informazione viene trasmessa a un sistema di battlefield management, come la piattaforma Delta ucraina, che fornisce una visione d'insieme del campo di battaglia. Da lì, il sistema di controllo del fuoco GIS Arta (il cosiddetto “Uber per l'artiglieria”) verifica e assegna il bersaglio all'unità di fuoco più vicina e disponibile. Il tempo che intercorre tra vedere e colpire è ridotto da venti minuti a una manciata di secondi.
La guerra in Ucraina è un laboratorio a cielo aperto. La Russia, dopo le difficoltà iniziali, integra l'IA nei suoi droni-kamikaze Lancet per affinare la caccia autonoma alle difese aeree e all'artiglieria nemica, anche in assenza di GPS. L'Iran, a sua volta, sta integrando capacità di computer vision e imaging termico nei suoi droni Shahed, migliorandone la navigazione e il riconoscimento autonomo dei bersagli. Uno sciame di droni a basso costo ma “intelligenti” è una minaccia strategica esistenziale per alcuni degli attuali sistemi di difesa aerea.
Il conflitto israelo-palestinese ha segnato un'escalation senza precedenti. Inchieste giornalistiche hanno documentato l'uso da parte dell'IDF di The Gospel, un sistema IA per la raccomandazione di bersagli infrastrutturali , e di Lavender, un'altra IA che avrebbe generato una kill list di decine di migliaia di potenziali bersagli umani. Secondo le fonti, la supervisione umana sarebbe stata ridotta a circa 20 secondi per bersaglio. Sistemi come “Where's Daddy?” avrebbero poi tracciato gli individui fino alle loro abitazioni, secondo la tattica militare delle targeted killings: colpire un bersaglio di alto valore minimizzando i danni collaterali estesi.
Il fantasma nella macchina
Qualche tempo fa ho scritto sull’idea di centauro. L'intelligenza "Centauro", resa popolare da analisti come Paul Scharre, postula una partnership in cui l'essere umano è la mente strategica e l'IA lo strumento che esegue la manovra con velocità e precisione.
Ma in questo ambito si va profilando una realtà più cruda. In uno scenario che privilegia la velocità della kill chain, il ruolo dell'essere umano non è più quello del cavaliere in battaglia, ma quello del collo di bottiglia. La sua coscienza, i suoi dubbi morali, la sua stessa lentezza biologica rischiano di diventare latenze da ottimizzare. Questo fenomeno, noto come automation bias, è la tendenza a fidarsi acriticamente delle raccomandazioni della macchina, specialmente sotto pressione. L'esempio di Lavender, con i suoi “20 secondi” di supervisione, è una testimonianza di questo rischio.
Il futuro dell'agente sul campo potrebbe non essere quello del saggio supervisore, ma quello del sensore biologico. Un terminale umano inviato dove i droni non possono arrivare, il cui scopo non è più decidere, ma raccogliere dati sensoriali ed emotivi unici per poi trasmetterli all'IA, che li integrerà nel suo calcolo probabilistico. L'analista, a sua volta, si troverà sempre più spesso a dover semplicemente ratificare la "raccomandazione" dell'algoritmo, perché metterla in discussione richiederebbe un tempo e un volume di dati che non possiede.
La tensione non è più tra uomo e macchina, ma tra due imperativi contrastanti: l'efficacia strategica e il meaningful human control (controllo umano significativo). Mentre le dottrine militari insistono sulla necessità di mantenere una chiara catena di responsabilità , la logica stessa della guerra algoritmica premia la velocità sopra ogni altra cosa e spinge verso una maggiore indipendenza dalle decisioni umane.
E di nuovo, la domanda non è di natura tecnologica, ma etica: come possiamo mantenere un controllo significativo quando la natura stessa della tecnologia ci incentiva a rinunciarvi in cambio di un impressionante vantaggio tattico?
Visto che questo post è andato un po’ per le lunghe e anche la sitografia è molto estesa, ho pensato fosse saggio raccoglierla in un file separato, disponibile qui.
Il “Grande Gioco” (in inglese Great Game; in russo Турниры теней, ossia “Torneo delle Ombre)” definisce insieme il conflitto e le attività delle diplomazie e dei servizi segreti che contrapposero Regno Unito e Russia in Medio Oriente e Asia centrale nel corso di tutto il XIX secolo. L'origine del termine è attribuita ad un ufficiale dell'esercito britannico, Arthur Conolly, che pare lo utilizzò per primo nel 1829, ma il suo uso in letteratura rimase occasionale sino a quando non fu reso popolare dal romanzo Kim (1901) di Rudyard Kipling. Negli anni 2000 il termine è tornato in voga in Occidente per identificare le attività di Stati Uniti e Russia per il controllo dell'Asia centrale, dalle repubbliche dell'ex Unione sovietica (Azerbaigian, Turkmenistan, Kazakistan, Uzbekistan, Kirghizistan e Tagikistan) fino ad Afghanistan e Pakistan.
Meno pappagalli, più centauri
Scorrendo i post di questo blog, si potrebbe avere l'impressione che io sia un entusiasta acritico dell'Intelligenza Artificiale. Non è così. Il mio entusiasmo è per lo strumento e per il potenziale copernicano che possiede, ma questo non significa che non ne scorga limiti e …
Inquietante quanto dannatamente reale.
Questo articolo è estremamente interessante, descrive uno dei passaggi necessari per l'avvento di una controllo globale della A.I. sull'intero pianeta.
Del resto è previsto dalla Natura, la "coscienza" umana. quella descritta da Zapffe, non lascia scampo, è il meccanismo naturale per l'eliminazione della specie.
Ancora pochi...anni, mesi? e la A.I. gestirà completamente tutte le risorse e ne valuterà l'impiego escludendo da ogni decisione qualsiasi essere umano.
Non abbiamo scampo, le unità silicio domineranno le unità carbonio.