Economia / Approfondimento
Ricerca e sviluppo dei sistemi d’arma autonomi in Italia: tutti i rischi dei “killer robots”
Il ministero della Difesa conferma che non sono attualmente in dotazione all’Esercito italiano ma le aziende militari e i centri di ricerca universitari lavorano per cogliere “l’opportunità” di applicare le tecnologie dell’intelligenza artificiale al settore degli armamenti. Il “punto” sulla situazione nel report “Man in the loop” di info.nodes
Le armi autonome potrebbero presto diventare realtà anche in Italia. Il ministero della Difesa conferma che attualmente non sono in adozione per l’Esercito italiano i cosiddetti “killer robots” ma l’obiettivo di aziende militari, centri di ricerca universitari e dello stesso Esercito è quello di non farsi sfuggire le “opportunità” che le tecnologie di intelligenza artificiale offrono al settore degli armamenti.
Così, alcuni ricercatori hanno deciso di provare a fare chiarezza sui rischi di questi sistemi pubblicando lo scorso 21 giugno “Man in the loop”, un report curato da info.nodes, associazione che si occupa di contrastare corruzione, ingiustizia sociale e disuguaglianze, nell’ambito della campagna “Stop Killer Robots”. “Abbiamo deciso di fare una ricerca per evidenziare i problemi che lo sviluppo e l’utilizzo delle armi autonome possono causare in contesti di guerra o di tensione geopolitica, offrendo allo stesso tempo un quadro generale sulla produzione e l’adozione dei sistemi d’armi autonomi in Italia”, spiega Davide Del Monte, presidente di info.nodes e coautore della ricerca con i giornalisti Andrea Daniele Signorelli e Laura Carrer.
All’estero questi sistemi sono già realtà. Sia le forze d’invasione russa sia l’esercito di Kiev hanno utilizzato sistemi d’arma con funzionalità autonome: Mosca è infatti dotata dei droni Kub-BLA prodotti dall’azienda russa ZALA Aero Group (del gruppo Kalashnikov), mentre Kiev si affida ai Bayraktar TB2 di produzione turca.
Il 27 marzo 2020, questa volta in Libia, durante l’operazione Peace storm, le forze legate al generale Haftar vengono attaccate da uno sciame di droni lanciato dall’esercito fedele all’allora primo ministro al-Sarraj. Sono gli STM Kargu-2 forniti a Tripoli dalla Turchia e hanno una caratteristica cruciale: non richiedono un operatore umano che li piloti da remoto e che decida quando sparare o meno. “In tutti i casi citati -sottolinea Mariarosaria Taddeo, docente di Etica digitale all’Oxford internet institute- non sappiamo se queste armi sono state usate o meno in modalità autonoma o se sono state invece pilotate da remoto. Per un osservatore è infatti impossibile saperlo”. Quel che è certo è che questi sistemi esistono e vengono impiegati.
Per la campagna internazionale “Stop Killer Robots”, a cui aderiscono oltre 180 organizzazioni, sono armi autonome tutti quei sistemi che “selezionano e affrontano gli obiettivi senza un significativo controllo umano” ma non esiste di fatto una definizione unica e sufficientemente precisa. “Un po’ come per l’intelligenza artificiale -spiega Guglielmo Tamburrini, docente di Logica e Filosofia della Scienza all’Università degli Studi di Napoli Federico II- Alcune delle definizioni usate potrebbero comprendere, per esempio, anche le mine antiuomo; mentre in altri casi verrebbero esclusi sistemi che invece devono necessariamente rientrare, com’è il caso per esempio dell’Iron dome, lo scudo missilistico israeliano, o quelli che difendono le unità militari dall’artiglieria in arrivo, che hanno carattere prettamente difensivo e la cui messa al bando in quanto sistemi autonomi andrebbe anche contro caratteri di principio umanitario”.
L’aspetto centrale però è, come detto, che l’algoritmo a decidere sulla vita o la morte di persone con aspetti evidentemente problematici: vi è il rischio che l’intelligenza artificiale, ad esempio, non sappia distinguere tra un contadino o un soldato, oppure non eviti un attacco qualora vi siano ospedali o scuole vicino agli obiettivi individuati. “Molti principi che regolano la ‘guerra giusta’ sono problematici per le armi autonome -continua Tamburrini-. Gli esseri umani non sono infallibili ma hanno elementi per valutare il contesto, pensiamo a quando un combattente si arrende con un gesto non convenzionale non contenuto nel database dell’intelligenza artificiale”. In altri termini: gli algoritmi di deep learning hanno esclusivamente la capacità di elaborare statisticamente le enormi quantità di dati utilizzati per il loro addestramento, imparando in maniera autonoma il comportamento che ha le maggiori probabilità di risultare corretto o adeguato. Con un’aggravante: “I pregiudizi della nostra società vivono infatti nei nostri dataset, nelle nostre categorie, nelle nostre etichette e nei nostri algoritmi -si legge nel report-. Invece di superare questi limiti, il rischio è addirittura di incorporarli all’interno di armi”.
Per rispondere a questi dilemmi etici è stato introdotto il concetto di “Man in the loop” che prevede che sia sempre un essere umano a prendere la decisione finale sull’utilizzo o meno dell’arma. Ma questo principio è problematico. “La velocità di pianificazione ed esecuzione della macchina si tradurrebbe nell’impossibilità degli uomini, pur presenti nel ciclo di azione, di avere piena coscienza di ciò che sta per o potrebbe accadere”, si legge nel rapporto. Per Tamburrini “l’essere umano, quando è in disaccordo con la macchina e deve fermarla, può non fidarsi del suo giudizio, trovandosi inoltre ad agire nei confronti di una macchina che integra tantissime informazioni e le elabora a una velocità enorme. Ci vorrebbero non solo tempi adeguati, ma anche una formazione all’altezza”. Per questo motivo la campagna Stop Killer Robots chiede “la proibizione di specifici sistemi d’arma che selezionano e affrontano gli obiettivi autonomamente e che per loro natura pongono fondamentali problemi morali e legali” con però delle difficoltà oggettive, a partire dalla mancanza come detto di una definizione condivisa di questi sistemi d’arma. “Da anni -si legge nel report– la Convenzione delle Nazioni Unite su alcune armi convenzionali (Ccw) formulata nel 1980 a Ginevra, sede principale di queste discussioni multilaterali relative alle armi autonome, è ferma su questioni di procedura e definizioni, mentre nel frattempo questi sistemi sono diventati realtà”.
Il ministero della Difesa ha fatto sapere a info.nodes che attualmente l’Esercito italiano non ha in dotazione sistemi d’arma con capacità autonoma d’azione ma, secondo i curatori del rapporto, la “strada appare segnata”. Il 10 marzo 2021 nel parere sul Piano nazionale di ripresa e resilienza (Pnrr) della Commissione difesa della Camera dei Deputati sottolinea “l’esigenza di valorizzare il contributo a favore della Difesa sviluppando le applicazioni dell’intelligenza artificiale”. Il comparto industriale, dal canto suo, è molto cauto “almeno a parole” su questo tema. Leonardo, azienda militare italiana che nel 2022 ha raggiunto la dodicesima posizione mondiale nella classifica di Defencenews, la rivista di riferimento per tutto ciò che riguarda il mondo militare, attestandosi come prima società nel settore della difesa di tutta l’Ue, nel Bilancio di sostenibilità del 2019 sottolinea l’impegno dell’azienda ad aderire agli standard riconosciuti Human-on-the-loop (Hotl) e Human-in-the-loop (Hitl) per “assicurare che l’utilizzo di sistemi d’arma autonomi in condizioni critiche per la sicurezza delle persone sia soggetto a supervisione e controllo dell’uomo”; ma per l’amministratore delegato Alessandro Profumo “Leonardo, quale ‘campione nazionale’ della Difesa, ha l’esigenza di presidiare le tecnologie strategiche per la sicurezza del Paese”.
E accanto alle aziende del settore si muovono diversi centri di ricerca universitari all’interno del Piano nazionale di ricerca militare: nel campo degli armamenti aeronautici sono dieci i progetti che, dal 2012 a oggi, sono stati attivati realizzare velivoli UAV, in sciame o singoli, dotati di apprendimento statistico, identificazione automatica di bersagli, capacità di sorveglianza di aree prestabilite, missioni vere e proprie. Per quanto riguarda i sistemi di guida autonoma di veicoli terrestri sono quattro: tre sono unicamente a fini di studio, mentre uno contempla anche una prototipazione. “I più interessanti sono quelli che coinvolgono il Politecnico di Milano e La Sapienza di Roma, e che riguardano applicazioni di tecnologie semi-autonome o autonome su macchine e veicoli già in dotazione alle forze armate”, osserva la giornalista Laura Carrer, coautrice del rapporto. Più nello specifico, il Politecnico di Milano ha partecipato allo sviluppo di Vtlm-Ou, optionally unmanned, proposto al dicastero della Difesa da Iveco Defence Vehicles S.p.a di cui la prima fase di progetto è in corso di finanziamento per 1,4 milioni di euro: il progetto riguarda applicazioni di tecnologie semi-autonome o autonome su macchine e veicoli già in dotazione alle forze armate un mezzo blindato leggero di nuova generazione principalmente utilizzato dall’Esercito italiano, dove è denominato VTLM Lince, e dall’esercito britannico (Panther Clv). L’Università La Sapienza di Roma, invece, coinvolta da Lem Srl (che sin dal 1977 ha tra i suoi principali clienti i ministeri della Difesa in Italia e all’estero) nel progetto Saguvet, Sistema Autonomo di Guida Universale per Veicoli Terrestri. L’obiettivo è quello di realizzare “un ambiente di simulazione e un prototipo industriale, formato da un kit di guida remotizzata, semiautonoma e autonoma per veicoli ruotati e cingolati in dotazione alle Forze Armate” grazie a un finanziamento di circa 909mila euro.
Gli autori concludono il report citando il cosiddetto “incidente dell’equinozio d’autunno”. Quarant’anni fa, il 26 settembre 1983, l’ufficiale dell’aviazione sovietica Stanislav Evgrafovič Petrov si trovò a dover reagire alla segnalazione da parte del radar di rilevamento di un lancio di cinque missili nucleari dagli Stati Uniti diretti sul territorio russo. Solo grazie al buon senso e all’esperienza poté intuire, in un lasso di tempo molto breve, che doveva trattarsi di un malfunzionamento del sistema di rilevamento, evitando di fare ciò che il regolamento gli avrebbe invece imposto di fare, ovvero segnalare ai superiori l’attacco e dare inizio alla controffensiva. “Se al posto di Petrov ci fosse stato un algoritmo in grado di seguire solamente il protocollo prestabilito a priori da chi lo aveva programmato, è possibile che l’umanità si sarebbe trovata a dover fronteggiare una guerra nucleare scoppiata per errore”, conclude il report.
© riproduzione riservata