Le armi autonome e la guerra cognitiva stanno rimodellando la strategia militare globale e stanno già determinando chi è il vincitore e il perdente.

di Leslie Alan Horvitz per Asia Times — Traduzione a cura di Old Hunter
L’articolo tocca uno dei cambiamenti più profondi e consequenziali del nostro tempo: l’ingresso dell’IA nella guerra – un dominio in cui l’intuizione umana, il coraggio e una strategia vincente hanno sempre storicamente definito i risultati. Attualmente, l’IA è sostanzialmente un supporto in gran parte utilizzato per incrementare il processo decisionale umano, non per sostituirlo. Ad esempio, l’analisi che fornisce è più veloce di quanto l’umano possa fare, offrendo a chi comanda simulazioni in tempo reale e previsioni probabilistiche per le scelte tattiche o strategiche più opportune. Ma queste sono solo le prime timide fasi del suo impiego nella guerra. È, però, inevitabile che si giunga all’autonomia che il mezzo è in grado di attuare. Già oggi le tecnologie Swarm consentono a un gran numero di droni di agire come un’unità coordinata e guidata dall’intelligenza artificiale in grado di identificare e distruggere bersagli senza comando umano diretto. Ma il grande punto di svolta è quando l’IA passerà da consulente ad attore, in grado di selezionare e coinvolgere tutto il sistema militare in modo indipendente per giungere agli obiettivi finali decisi per ora dalla politica. L’uomo perderà rilevanza? In molte attività tecniche – velocità, elaborazione dei dati, accuratezza – l’intelligenza artificiale supera già gli esseri umani. Ma, anche se strettamente integrati con i sistemi di intelligenza artificiale, i singoli soldati e persino i comandanti rischiano di diventare periferici e secondari a fronte della decisione di una macchina senz’anima, come definiamo quel quid invisibile ma reale che definisce noi, la specie umana. Inoltre, nel futuro, sistemi superintelligenti – se mai sviluppati – potrebbero perseguire strategie subdole che gli umani non possono capire o fermare. La guerra potrebbe diventare così veloce, così complessa e così distaccata dalla nostra supervisione che potrebbe anche accadere di non renderci conto che per l’uomo è iniziata la sua fine come specie. Tuttavia la guerra non è mai e non può essere solo un compito tecnico. Le qualità umane come il coraggio e l’intuizione geniale, il giudizio morale, l‘empatia e la moderazione, infine anche la pietà, sono ancora – per ora – difficili da codificare in un algoritmo.
Old Hunter
Nel film War Games del 1983, un supercomputer noto come WOPR (War Operation Plan Response) sta per provocare una guerra nucleare tra gli Stati Uniti e l’Unione Sovietica, ma grazie all’ingegnosità di un adolescente (interpretato da Matthew Broderick), la catastrofe viene evitata. Nel primo film di Terminator, uscito un anno dopo, un supercomputer chiamato “Skynet” decide di sterminare l’umanità perché è percepita come una minaccia alla sua esistenza, piuttosto che per proteggere le armi nucleari americane.
Sebbene questi film offrissero al pubblico scenari cupi di macchine intelligenti impazzite, erano anche profetici. L’intelligenza artificiale (IA) è così comune che viene applicata di routine con una semplice ricerca su Google. Che venga integrata anche nelle strategie militari non sorprende affatto. Il problema è che abbiamo una scarsa comprensione delle potenzialità di queste armi ad alta tecnologia (quelle già pronte all’uso e quelle in fase di sviluppo). Ma non siamo preparati a sistemi in grado di trasformare per sempre la guerra.
Nel corso della storia, è stata l’intelligenza umana a utilizzare la tecnologia, non la tecnologia in sé, a vincere o perdere guerre. Questo potrebbe cambiare in futuro, quando l’intelligenza umana si concentrerà invece sulla creazione di sistemi più efficaci sul campo di battaglia rispetto a quelli dell’avversario.
“Sorpresa esponenziale e insormontabile”
L’intelligenza artificiale non è una tecnologia che può essere facilmente rilevata, monitorata o vietata, come ha sottolineato Amir Husain, fondatore e CEO di un’azienda di intelligenza artificiale, SparkCognition, in un articolo per Media News. L’integrazione di elementi di intelligenza artificiale – riconoscimento visivo, analisi del linguaggio, previsione basata sulla simulazione e forme avanzate di ricerca – con tecnologie e piattaforme esistenti “può rapidamente generare capacità completamente nuove e inaspettate”. Il risultato “può creare una sorpresa esponenziale e insormontabile”, scrive Hussain. La tecnologia avanzata in ambito bellico è già ampiamente diffusa. L’uso di velivoli senza equipaggio (UAV) – comunemente noti come droni – in ambito militare ha fatto scattare l’allarme sui “robot killer”.
Cosa succederà quando i droni non saranno più controllati dagli esseri umani e potranno svolgere missioni militari in autonomia? Questi droni non si limiteranno all’aria; potranno operare anche a terra e sott’acqua. L’introduzione dell’intelligenza artificiale, che di fatto renderà queste armi autonome, non è lontana. Inoltre, sono economici da produrre e da acquistare. I russi stanno acquistando droni dall’Iran per usarli nella loro guerra in Ucraina, e gli ucraini hanno creato un’industria artigianale per costruire droni contro i russi. La relativa facilità con cui un drone commerciale può essere convertito in uno con applicazioni militari rende ancora più sfumato il confine tra attività commerciali e militari. A questo punto, però, il controllo resta ancora affidato agli esseri umani.
Un problema simile si riscontra nei sistemi di raccolta di informazioni che hanno un duplice utilizzo, tra cui satelliti, velivoli con e senza pilota, radar terrestri e sottomarini e sensori, tutti con applicazioni sia commerciali che militari. L’intelligenza artificiale può elaborare enormi quantità di dati provenienti da tutti questi sistemi e quindi individuare schemi significativi, identificando cambiamenti che gli esseri umani potrebbero non notare mai. Le forze armate americane sono state in qualche modo ostacolate nelle guerre in Iraq e Afghanistan perché non erano in grado di elaborare grandi quantità di dati.
Già oggi, i droni a pilotaggio remoto utilizzano l’intelligenza artificiale per decolli, atterraggi e voli di routine autonomi. Agli operatori umani non resta che concentrarsi sulle decisioni tattiche, come la selezione degli obiettivi da colpire e l’esecuzione degli attacchi. L’intelligenza artificiale consente inoltre a questi sistemi di operare rapidamente, determinando azioni a velocità raramente possibili se gli esseri umani prendono parte al processo decisionale. Finora, la velocità decisionale è stata l’aspetto più importante della guerra.
Se, tuttavia, i sistemi di intelligenza artificiale si scontrano con gli umani, l’IA ne uscirà invariabilmente vincitrice. Tuttavia, la possibilità che i sistemi di intelligenza artificiale eliminino il fattore umano terrorizza chi non vuole vedere uno scenario apocalittico su celluloide realizzarsi nella realtà.
Automatizzato contro autonomo
È necessario fare una distinzione tra il termine “autonomo” e il termine “automatizzato”. Se controlliamo il drone, allora il drone è automatizzato. Ma se il drone è programmato per agire di propria iniziativa, lo definiremmo autonomo. Ma l’arma autonoma si riferisce all’arma vera e propria – ovvero un missile su un drone – o al drone stesso? Prendiamo, ad esempio, il drone militare Global Hawk. È automatizzato in quanto controllato da un operatore a terra, eppure, se perde la comunicazione con il suolo, il Golden Hawk può atterrare da solo. Questo lo rende automatizzato o autonomo? O entrambe le cose?
La domanda più importante è se il sistema sia critico per la sicurezza. In altre parole, se abbia la capacità decisionale di usare un’arma contro un bersaglio senza l’intervento del suo operatore umano. Ad esempio, è possibile che un drone colpisca autonomamente un obiettivo militare statico (come una base militare nemica), ma non un obiettivo umano, per il timore che civili innocenti possano essere feriti o uccisi come danni collaterali. Molti paesi hanno già sviluppato droni con immagini in tempo reale in grado di agire nel primo caso autonomamente, ma non quando si tratta di obiettivi umani.
I droni non sono le uniche armi in grado di agire in modo autonomo. Stati Uniti, Cina e diversi paesi europei stanno sviluppando sistemi militari in grado di agire autonomamente in aria, a terra, in acqua e sott’acqua, con vari gradi di successo. Diversi tipi di elicotteri autonomi, progettati in modo che un soldato possa guidarli sul campo tramite uno smartphone, sono in fase di sviluppo negli Stati Uniti, in Europa e in Cina. Sono in fase di sviluppo anche veicoli terrestri autonomi, come carri armati e veicoli da trasporto, e veicoli sottomarini autonomi.
Nella quasi totalità dei casi, tuttavia, le agenzie che sviluppano queste tecnologie incontrano difficoltà nel compiere il salto dallo sviluppo all’implementazione operativa. Molte sono le ragioni dell’insuccesso nel portare queste tecnologie a maturazione, tra cui i costi e le problematiche tecniche impreviste, ma altrettanto problematiche sono le barriere organizzative e culturali. Gli Stati Uniti, ad esempio, hanno faticato a rendere operativi i droni autonomi, principalmente a causa di conflitti organizzativi e della priorità data ai velivoli con equipaggio.
Il futuro guerriero
Nei campi di battaglia del futuro, i soldati d’élite potranno contare su un head-up display che fornisce loro una grande quantità di informazioni, raccolte e instradate attraverso supercomputer trasportati nei loro zaini tramite un motore di intelligenza artificiale. Grazie all’intelligenza artificiale, i dati vengono analizzati, ottimizzati e ritrasmessi all’istante nell’head-up display. Questo è uno dei tanti scenari possibili presentati dai funzionari del Dipartimento della Difesa statunitense. Il Pentagono ha adottato un concetto relativamente semplice: quello di “operatore iper-abilitato“.
L’obiettivo di questo concetto è quello di fornire alle Forze Speciali una “supervisione cognitiva” sul campo di battaglia, ovvero “la capacità di dominare la situazione prendendo decisioni informate più rapidamente dell’avversario”. In altre parole, saranno in grado di prendere decisioni basate sulle informazioni che ricevono più rapidamente del nemico. Il modello decisionale per l’esercito è chiamato “ciclo OODA“, ovvero “osservare, orientare, decidere, agire”. Questo avverrà utilizzando computer che registrano tutti i dati rilevanti e li trasformano in informazioni fruibili attraverso un’interfaccia semplice come un head-up display.
Questo display offrirà anche un sistema di “traduzione visiva dell’ambiente” progettato per convertire gli input in lingua straniera in un inglese chiaro in tempo reale. Noto come VITA, il sistema comprende sia un sistema di traduzione visiva dell’ambiente sia funzionalità di traduzione vocale. Il motore di traduzione consentirà all’operatore di “intraprendere conversazioni efficaci laddove prima era impossibile”. VITA, acronimo di Versatile Intelligent Translation Assistant, offre agli utenti funzionalità linguistiche in russo, ucraino e cinese, incluso il mandarino, un dialetto cinese. Gli operatori potrebbero utilizzare i propri smartphone per scansionare una strada in un paese straniero, ad esempio, e ottenere immediatamente la traduzione dei segnali stradali in tempo reale.
Sistemi di intelligenza artificiale avversaria
Gli esperti militari suddividono gli attacchi avversari in quattro categorie: evasione, inferenza, avvelenamento ed estrazione. Questi tipi di attacchi sono facilmente realizzabili e spesso non richiedono competenze informatiche. Un nemico impegnato in attacchi evasivi potrebbe tentare di ingannare un’arma IA per evitare di essere scoperto, ad esempio nascondendo un attacco informatico o convincendo un sensore che un carro armato è uno scuolabus. Ciò potrebbe richiedere lo sviluppo di un nuovo tipo di mimetizzazione IA, come il posizionamento strategico di nastri, in grado di ingannare l’IA.
Gli attacchi inferenziali si verificano quando un avversario acquisisce informazioni su un sistema di intelligenza artificiale che consentono tecniche evasive. Gli attacchi di avvelenamento prendono di mira i sistemi di intelligenza artificiale durante l’addestramento, interferendo con l’accesso ai set di dati utilizzati per addestrare gli strumenti militari, ad esempio etichettando erroneamente le immagini dei veicoli per ingannare i sistemi di puntamento, o manipolando i dati di manutenzione progettati per classificare un imminente guasto del sistema come un’operazione normale. Gli attacchi di estrazione sfruttano l’accesso all’interfaccia dell’IA per apprendere informazioni sufficienti sul suo funzionamento da creare un modello parallelo del sistema.
Se i sistemi di IA non sono protetti da utenti non autorizzati, gli utenti di un avversario potrebbero prevedere le decisioni prese da quei sistemi e utilizzare tali previsioni a proprio vantaggio. Ad esempio, potrebbero prevedere come un sistema senza pilota controllato dall’intelligenza artificiale risponderà a specifici stimoli visivi ed elettromagnetici e quindi procedere a modificarne il percorso e il comportamento.
Gli attacchi ingannevoli sono diventati sempre più comuni, come dimostrano i casi che coinvolgono algoritmi di classificazione delle immagini che vengono ingannati inducendoli a percepire immagini inesistenti, confondendone il significato e scambiando, ad esempio, una tartaruga per un fucile. Allo stesso modo, i veicoli autonomi potrebbero essere costretti a sterzare nella corsia sbagliata o a superare a velocità eccessiva uno stop.
Nel 2019, la Cina ha annunciato una nuova strategia militare, la Guerra Intelligentizzata, che utilizza l’IA. I funzionari dell’Esercito Popolare di Liberazione cinese hanno dichiarato che le loro forze possono superare quelle statunitensi grazie all’IA. Uno degli obiettivi è quello di utilizzare questo tipo di guerra ad alta tecnologia per portare Taiwan sotto il proprio controllo senza ricorrere a una guerra convenzionale. Tuttavia, solo pochi dei numerosi studi cinesi sulla guerra intelligente si sono concentrati sulla sostituzione delle armi con l’intelligenza artificiale.
D’altra parte, gli strateghi cinesi non hanno fatto mistero della loro intenzione di controllare direttamente la volontà del nemico. Tra questi rientrano il presidente degli Stati Uniti, i membri del Congresso, i comandanti militari e i cittadini. Il “dominio dell’intelligence” – noto anche come guerra cognitiva o “controllo del cervello” – è visto come il nuovo campo di battaglia della guerra intelligente, che assegna all’IA un uso molto diverso da quello previsto dalla maggior parte delle discussioni americane e alleate.