www.resistenze.org - osservatorio - della guerra - 14-04-26 - n. 960

Da Gaza al mondo: l'intelligenza artificiale tra potere e legittimità

Ali Awad * | palestine-studies.org
Traduzione per Resistenze.org a cura del Centro di Cultura e Documentazione Popolare

08/04/2026

Nell'aprile 2024, un'inchiesta pubblicata dalla rivista "+972" ha rivelato che l'esercito israeliano utilizza un sistema noto come 'Lavender', supportato dall'intelligenza artificiale, per classificare migliaia di persone come "potenziali obiettivi" a Gaza. Ciò che ha attirato l'attenzione è che l'inchiesta riferisce che l'impatto di tali sistemi sulle operazioni dell'esercito è stato tale che gli ufficiali hanno trattato i risultati dell'intelligenza artificiale "come se fossero una decisione umana". Gli ufficiali hanno descritto il processo come quasi automatico. Ciò significa che la classificazione di un obiettivo per sferrare un attacco, un compito che di solito richiede una squadra e tempo, e che a volte può protrarsi per giorni o settimane, è diventata una funzione della macchina. [1]

È qui che inizia la vera questione. Il problema non sta nel fatto che la macchina «premi il pulsante», ma nel fatto che la sua raccomandazione diventi un elemento dominante rispetto alla decisione umana, rendendo l'intervento umano puramente formale o limitato nel tempo. Questo punto tocca il cuore del principio del «controllo umano effettivo», che costituisce uno dei pilastri del dibattito giuridico internazionale sui sistemi d'arma basati sull'intelligenza artificiale. E quando la raccomandazione diventa un percorso quasi obbligatorio, vacilla la catena di responsabilità tradizionale su cui il diritto internazionale umanitario si è basato fin dal XIX secolo: un uomo comanda, un uomo esegue, un uomo risponde.

Lo scopo di questo articolo è smontare una specifica illusione che sta prendendo piede nel discorso ufficiale e mediatico sulla guerra a Gaza: che la superiorità nell'intelligenza artificiale militare conferisca a chi la possiede una legittimità implicita, o renda la sua responsabilità una questione secondaria. Questa illusione si manifesta in due immagini complementari; la prima è istituzionale, quando il direttore generale del Ministero della Difesa israeliano, il generale Eyal Zamir, descrive l'intelligenza artificiale militare come «un punto di svolta»; ciò che rende Israele «lo Stato leader nella tecnologia della difesa»[2] La seconda è mediatica, quando il quotidiano "Jerusalem Post" inquadra questa superiorità tecnica come "deterrente e garante della stabilità regionale", come se la potenza tecnologica si giustificasse da sola e rendesse superfluo qualsiasi controllo legale.

Tuttavia, la rivista "Global Ethics & Politics"  [3]  ha pubblicato nel luglio 2025 uno studio accademico peer-reviewed che smonta questa illusione alla radice: «I sistemi di intelligenza artificiale militare mancano di legittimità etica; non perché siano inefficaci, ma perché dissolvono il legame tra l'efficacia etica umana e i risultati letali», e «la legittimità etica, nel suo senso stretto, richiede l'esistenza di attori umani in grado di assumersi la responsabilità dei danni».[4]

Ancora più grave è il fatto che alcuni di coloro che subiscono il peso di questa forza potrebbero scivolare nell'autoflagellazione, trasformando la domanda da: «Chi controlla l'uso di questa tecnologia?» a «Perché siamo rimasti indietro rispetto ad essa?». Si tratta di una transizione psicologica e politica pericolosa, poiché sposta il centro del dibattito dalla messa in discussione della forza alla sua glorificazione. Cerchiamo qui di capire come l'assenza di un quadro giuridico vincolante per i sistemi di intelligenza artificiale militare abbia permesso loro di operare in una zona grigia, in cui convergono tre tipi di ambiguità: l'ambiguità della definizione, l'ambiguità dell'attribuzione e l'ambiguità della verifica; che insieme producono una situazione quasi eccezionale: una tecnologia in grado di sferrare attacchi, e non esiste ancora un accordo internazionale su come definirla o su chi debba essere ritenuto responsabile del suo utilizzo.

Il prestigio della tecnologia come strumento coloniale

Quando si parla di superiorità tecnologica, un'idea tossica si insinua nella coscienza di chi subisce l'oppressione: che ciò che li ha colpiti sia una punizione storica per le loro mancanze, e che la sconfitta sia una prova del loro ritardo. Le persone si flagellano, si chiudono in se stesse e trasformano la domanda politica: chi detiene il potere e perché? in una domanda culturale: perché siamo in ritardo?

Questo meccanismo non è nuovo. Quando gli europei arrivarono in Africa nel XIX secolo con i cannoni Maxim e i fucili Martini-Henry, usarono la tecnologia come arma sul campo e argomento ideologico allo stesso tempo: la superiorità militare era prova di superiorità culturale, e la sottomissione era prova di meritare la sottomissione. Hilaire Belloc scrisse ironicamente nella sua poesia "The Modern Traveller" del 1898: "Qualunque cosa accada, noi possediamo il mitragliatore Maxim, e loro no". Non era un'ironia innocente, era la sintesi di un intero ragionamento imperiale.[5]

Oggi, lo strumento non è cambiato tanto quanto si è ingigantito e ramificato; il vecchio ragionamento secondo cui chi detiene il potere ha il diritto di definire la legge ha trovato nell'intelligenza artificiale militare uno strumento che gli conferisce un'apparenza di obiettività e ne nasconde il carattere politico; la tecnologia aggiunge all'oppressione uno strato di falsa neutralità difficile da contestare.

... E il messaggio implicito è lo stesso: chi possiede la tecnologia ha il diritto di definire la legge e di determinare chi merita protezione. Accettare questa equazione è una scelta politica presentata sotto le spoglie dell'oggettività tecnica, e c'è una grande differenza tra le due cose.

Il diritto umanitario è chiaro: il possesso di questa tecnologia non conferisce a nessuno una legittimità automatica, né obbliga chi ne subisce l'influenza ad accettare la logica della superiorità tecnologica. E la questione, in definitiva, non è tecnica, ma politica, giuridica e umanitaria, e necessita di un dibattito che non è ancora stato avviato con la serietà che merita.

La strategia della non-vincolatività

Non è possibile comprendere la posizione internazionale sull'intelligenza artificiale militare senza cogliere il percorso tracciato dagli Stati Uniti sin dall'inizio; fin dal primo momento, infatti, hanno preferito definire le regole piuttosto che sottostarvi. Nel febbraio 2023, a margine della conferenza "Disarmo all'Aia", Washington ha lanciato la "Dichiarazione politica sull'uso responsabile dell'intelligenza artificiale a fini militari", [6] un documento che descrive le migliori pratiche e le linee guida generali senza aggiungere nuovi obblighi agli Stati firmatari né modificare i loro obblighi giuridici esistenti. Vi hanno aderito 57 Stati, tra cui Israele, il Regno Unito, l'Australia, il Giappone e la Corea del Sud, mentre Cina e Russia hanno rifiutato di aderire. [7] Il messaggio era chiaro: sì ai principi, no agli obblighi. Quando nel settembre 2024 si è tenuto a Seul il secondo "Vertice sull'intelligenza artificiale responsabile in ambito militare" (REAIM), anche in questa occasione è stato presentato un documento politico non vincolante. [8]

In questo contesto, il 24 dicembre 2024 ha segnato un passo significativo sulla carta: l'approvazione da parte dell'Assemblea Generale delle Nazioni Unite della risoluzione 79/239; la prima risoluzione nella sua storia che riguarda specificamente l'intelligenza artificiale in ambito militare e le sue implicazioni per la pace e la sicurezza internazionali. La risoluzione ha ottenuto 165 voti a favore, mentre la Corea del Nord e la Russia hanno votato contro e Bielorussia, Etiopia, Iran, Nicaragua, Arabia Saudita e Siria si sono astenute. La risoluzione ha incaricato il Segretario Generale di redigere un rapporto fattuale che monitorasse gli usi effettivi e le sfide giuridiche,[9] che è stato pubblicato nel giugno 2025 (A/80/78). Il rapporto ha documentato specifici utilizzi sul campo: strumenti di intelligenza artificiale che generano raccomandazioni di attacchi, sollevando serie preoccupazioni in merito alla proporzionalità e al controllo umano quando gli operatori si affidano eccessivamente ai loro risultati, e sistemi che creano banche dati che collegano individui a gruppi armati, con il rischio di errata identificazione quando i dati sono distorti o incompleti, avvertendo che l'intelligenza artificiale potrebbe «rendere quasi impossibile l'attribuzione di responsabilità» nel diritto internazionale.[10]

Sul campo, la realtà si stava configurando indipendentemente da tutto ciò. Il Lieber Institute di West Point ha documentato che il sistema israeliano "Lavender", supportato dall'intelligenza artificiale, ha prodotto, nelle prime sei settimane successive al 7 ottobre 2023, circa 37.000 raccomandazioni di targeting, con un margine di tempo non superiore a 20 secondi per la revisione umana di ogni nome.[11] Il rapporto della "Commissione Globale per l'Intelligenza Artificiale Responsabile in Ambito Militare" (GC REAIM), pubblicato nel settembre 2025, ha rilevato la pericolosità di questo modello, definendo due linee rosse: il divieto di utilizzare l'intelligenza artificiale per selezionare e gestire gli obiettivi in modo autonomo e il divieto di integrarla nelle decisioni nucleari. [12] Entrambe le linee rosse[13] descrivono pratiche effettivamente documentate sul campo di battaglia.

Poi è arrivato novembre 2025, rivelando la natura del "consenso" internazionale che sembrava ampio nel dicembre 2024: sia Israele che gli Stati Uniti sono passati dal votare a favore della risoluzione al votare contro nella Prima Commissione delle Nazioni Unite, unendosi a Russia e Corea del Nord nel campo del rifiuto. [14] Gli Stati Uniti hanno chiarito la loro posizione affermando che «l'istituzione di qualsiasi nuova misura normativa sotto l'egida delle Nazioni Unite sarebbe inopportuna», limitandosi a fare riferimento alla dichiarazione politica non vincolante da loro stessi lanciata. [15] L'ampio consenso sulla carta e la contemporanea escalation sul campo non sono una contraddizione, ma sono due facce di una stessa strategia basata sulla partecipazione alla definizione delle regole per garantire che nessuna sia vincolante.

In questo vuoto, i sistemi di intelligenza artificiale militare operano di fatto come "armi non ancora vietate": non esiste una definizione giuridica vincolante che ne regoli il funzionamento, né un criterio chiaro per determinare chi sia responsabile quando si verificano danni in una catena che comprende lo sviluppatore, l'ente militare e il programmatore, ciò che gli esperti di diritto internazionale hanno definito un "vuoto di responsabilità" che garantisce l'impunità a tutte le parti di questa catena.

Dall'altra parte dell'Atlantico, il quadro appare ancora più paradossale. La legge europea sull'intelligenza artificiale "EU AI Act" è entrata in vigore il 1° agosto 2024 ed è stata descritta come la prima legislazione completa e vincolante al mondo per la regolamentazione dell'intelligenza artificiale. Tuttavia, questo risultato legislativo comporta un'eccezione fondamentale: la legge non disciplina le applicazioni dell'intelligenza artificiale destinate esclusivamente a scopi militari, di difesa e di sicurezza nazionale, il che crea un "punto cieco" nel sistema di governance europeo, proprio nell'ambito più delicato. Ciò è dovuto al fatto che la difesa e la sicurezza nazionale rimangono di competenza degli Stati membri e non rientrano nelle competenze dirette dell'Unione Europea. [16]

E anche quando un'azienda tecnologica cerca di tenere questi modelli lontani dal processo decisionale in ambito militare, si scontra con una decisione politica contraria. L'esempio più recente di ciò che sta accadendo in questo senso è la questione delle crescenti tensioni tra la società "Anthropic", sviluppatrice del modello di intelligenza artificiale "Claude", e il Dipartimento della Difesa degli Stati Uniti. "Anthropic" ha firmato un contratto con il Pentagono del valore di 200 milioni di dollari nel luglio 2025, mantenendo però due linee rosse: il divieto di utilizzare il suo modello "Claude" nelle armi completamente autonome e il divieto di impiegarlo nella sorveglianza di massa dei cittadini statunitensi. [17] Il vice segretario alla Difesa statunitense per la ricerca e l'ingegneria, Emile Michael, ha definito queste restrizioni "antidemocratiche", affermando che il Dipartimento non permetterà a nessuna azienda di imporre politiche che vadano oltre quanto approvato dal Congresso e che "qualsiasi azienda che voglia vendere i propri prodotti al Dipartimento della Guerra deve consentirgli di svolgere i propri compiti legittimi", e che l'alleggerimento delle restrizioni sulle aziende di intelligenza artificiale fa parte della strategia volta a «garantire che gli Stati Uniti rimangano in testa alla corsa», ritenendo che le aziende statunitensi nel settore dell'intelligenza artificiale siano un «pilastro strategico nazionale» che deve essere protetto da qualsiasi ostacolo normativo. [18] Alla fine di febbraio, il Segretario alla Difesa statunitense ha convocato il CEO di Anthropic, Pete Hegseth, Dario Amodei al Pentagono, minacciando di classificare l'azienda come «pericolo per la catena di approvvigionamento», una descrizione che fino a poco tempo fa era usata per riferirsi a avversari stranieri come l'azienda cinese «Huawei».

A complicare ulteriormente il quadro è il fatto che questa tensione non si svolge in un vuoto politico; mentre "Anthropic" si scontra con il Pentagono, le grandi aziende tecnologiche statunitensi stanno conducendo una campagna organizzata per plasmare la legislazione a proprio vantaggio. Secondo un'inchiesta pubblicata dal "Financial Times", i gruppi di pressione sostenuti dalla Silicon Valley stanno gareggiando per spendere non meno di 265 milioni di dollari nelle prossime elezioni di medio termine statunitensi, con l'obiettivo di sostenere candidati che si oppongono a qualsiasi legislazione vincolante sull'intelligenza artificiale, con lo slogan che le norme regolamentari "consentiranno alla Cina di raggiungere la supremazia globale nell'intelligenza artificiale". [19]

La tecnologia è più veloce della legislazione

I sistemi software si evolvono, vengono diffusi e modificati a una velocità che i sistemi legislativi non riescono a tenere il passo. Mentre un trattato internazionale richiede anni di negoziazioni, ratifiche e interpretazioni giuridiche, un modello di intelligenza artificiale può cambiare radicalmente con un solo aggiornamento software. A differenza delle armi tradizionali come i sottomarini o le armi chimiche, che possono essere definite con precisione, determinare cosa si intenda per "intelligenza artificiale militare" è ambiguo sia dal punto di vista tecnico che giuridico, poiché le sue applicazioni militari si sovrappongono a usi civili come l'analisi predittiva e l'elaborazione delle immagini, il che significa che qualsiasi definizione giuridica formulata oggi potrebbe diventare tecnologicamente superata prima ancora di entrare in vigore.

Il dilemma si complica ulteriormente se vi si aggiunge la dinamica della corsa agli armamenti; la competizione strategica tra gli Stati e la convinzione della necessità di acquisire un vantaggio sul rivale creano una pressione costante per la rapida diffusione delle capacità, il che potrebbe precedere di gran lunga i processi di verifica, collaudo e i meccanismi di governance. Il risultato è che gli Stati e le aziende che controllano questa tecnologia ottengono un ampio margine per sfuggire a qualsiasi quadro normativo. La questione non riguarda solo il testo della legge; riguarda anche il fatto che l'intelligenza artificiale sta effettivamente cambiando i campi di battaglia, e il conflitto in corso oggi ruota attorno a chi definirà le regole e i tempi di questa trasformazione.

La supremazia non crea legittimità

Dopo aver esaminato il percorso della non-vincolatività internazionale, il vuoto di responsabilità, l'accelerazione della tecnologia a scapito della legislazione e gli interessi delle aziende tecnologiche statunitensi, la situazione richiede di smontare un presupposto presente nel discorso ufficiale e mediatico che circonda la guerra su Gaza: che il possesso di una tecnologia avanzata conferisca automaticamente legittimità a chi la impiega. Questo presupposto è presente nelle dichiarazioni ufficiali del Ministero della Difesa israeliano e nell'inquadramento mediatico israeliano della guerra, e non nasce dal nulla.

Questa equazione, che si insinua implicitamente in molte discussioni sull'intelligenza artificiale militare israeliana a Gaza, confonde la capacità tecnica con la legittimità giuridica, due livelli completamente diversi. Lo sviluppo tecnologico non esonera gli Stati dal rispetto delle norme del diritto internazionale umanitario, né li esonera dall'obbligo di applicare i principi di distinzione, proporzionalità e precauzione. Inoltre, l'assenza di un quadro normativo internazionale completo per l'intelligenza artificiale militare costituisce un pericoloso vuoto normativo che lascia tecnologie estremamente potenti senza controllo, alimenta la proliferazione degli armamenti e indebolisce il diritto internazionale, secondo quanto concluso dal Carnegie Endowment for International Peace. [20]

In questo contesto, gli esperti di diritto internazionale umanitario hanno individuato tre domande fondamentali da porre quando una parte sostiene di utilizzare l'intelligenza artificiale nelle operazioni militari:

Primo: il sistema è stato sottoposto a una revisione legale documentata prima del suo utilizzo, recante chiare firme da parte delle autorità legali, tecniche e operative?

In secondo luogo: è possibile tracciare ogni decisione e ogni intervento nella catena del sistema in modo da consentire un'indagine successiva in caso di violazione? In terzo luogo: esiste un meccanismo di revisione continua e indipendente che non si esaurisca al momento del primo utilizzo?

L'onere della prova in queste domande non ricade né sulle vittime né sugli osservatori internazionali, ma sullo Stato che lo utilizza, poiché la trasparenza e la capacità di verifica e controllo umano sono requisiti fondamentali in ogni fase: individuazione dell'obiettivo, verifica, ingaggio e valutazione post-attacco. [21]

E la richiesta di questa trasparenza non è un lusso accademico. I partecipanti ai dialoghi "Intelligenza artificiale, pace e sicurezza 2025", patrocinati dall'Ufficio delle Nazioni Unite per gli affari di disarmo, hanno affermato che una pratica responsabile richiede un investimento deliberato, non deriva automaticamente dal semplice aggiornamento tecnico, e che la responsabilità deve rimanere in capo agli attori umani per l'intero ciclo di vita del sistema. [22] E a meno che gli Stati non siano obbligati a fornire pubblicamente tale prova, l'affermazione di un "uso responsabile" rimane un discorso propagandistico difficile da verificare o mettere in discussione, poiché la superiorità tecnica si completa solo se soggetta a responsabilità.

Note:

[1] Yuval Abraham, "'Lavender': The AI machine directing Israel's bombing spree in Gaza", +972 Magazine, 3/4/2024.

[2]Sharon Wrobel, "AI a 'game-changer' for future of warfare, says Defense Ministry director-general", The Times of Israel, 10/12/2024.

[3] Anna Ahronheim "Il vantaggio strategico di Israele nell'era dell'IA e della guerra autonoma" The Jerusalem Post, 20/7/2025.

[4]"La legittimità etica dei sistemi d'arma autonomi: ridefinire la responsabilità bellica nell'era dell'intelligenza artificiale" Ethics & Global Politics Vol. 18, n. 3, 28/6/2025.

[5] Hilaire Belloc & Basil Temple Blackwood, The Modern Traveller (Londra: Project Gutenberg, 2020).

[6]"Convenzione su alcune armi convenzionali - Riunione informale di esperti", Nazioni Unite, (2014).

[7] "Dichiarazione politica sull'uso militare responsabile dell'intelligenza artificiale e dell'autonomia" Dipartimento di Stato degli Stati Uniti, 13/12/2023.

[8]"Risultati del vertice REAIM (Responsible AI in Military Domain) 2024" Ministero degli Affari Esteri, 10/9/2024.

[9]"Risoluzione 79/236" adottata dall'Assemblea Generale, Nazioni Unite, 24/12/2024.

[10]"L'IA nei conflitti: mantenere l'umanità al comando" Nazioni Unite, 14/10/2025.

[11]Emelie Andersin "Serie sull'uso militare della biometria - L'uso da parte di Israele dell'IA-DSS e della tecnologia di riconoscimento facciale: l'erosione della protezione dei civili a Gaza" Lieber Institute West Point, 24/10/2025.

[12] Responsible by Design: Strategic Guidance Report on the Risks, Opportunities, and Governance of Artificial Intelligence in the Military Domain (Paesi Bassi: The Hague Centre for Strategic Studies, 2025).

[13] John Nicholas Thomas Shanahan "Artificial Intelligence and Nuclear Command and Control: It's Even More Complicated Than You Think" Arms Control Association, (settembre 2025).

[14] "L'Assemblea Generale adotta più di 60 risoluzioni e decisioni della sua Prima Commissione (Disarmo e Sicurezza Internazionale)" Nazioni Unite, 1/12/2025.

[15] "Risoluzione 79/239 "L'intelligenza artificiale nel settore militare e le sue implicazioni per la pace e la sicurezza internazionali" Assemblea Generale - Nazioni Unite.

[16] "Considerando 24", UE: Legge sull'intelligenza artificiale, 7/12/2024.

[17] Tina Nguyen & Hayden Field, "Dietro le quinte dei negoziati esistenziali di Anthropic con il Pentagono" The Verge, 24/2/2026.

[18]Sydney Joseph Freedberg, "Il CTO del Pentagono afferma che è 'antidemocratico' che Anthropic limiti l'uso militare di Claude AI", Breaking Defense, 19/2/2026.

[19]"I miliardari della Silicon Valley spendono ingenti somme per scrivere le regole americane sull'IA" Financial Times.

[20] Laruca Csernatoni, "Regolamentare l'IA militare in un campo minato geopolitico" Carnegie Endowment for International Peace, 17/7/2024.

[21] "Punti chiave dei Dialoghi 2025 su IA militare, pace e sicurezza" Nazioni Unite, 17/9/2025.

[22] Ibid.

(*) Ali Awad: giornalista libanese specializzato in tecnologia.


Resistenze.org     
Sostieni Resistenze.org.
Fai una donazione al Centro di Cultura e Documentazione Popolare.

Support Resistenze.org.
Make a donation to Centro di Cultura e Documentazione Popolare.