Esteri

Gaza e il lato oscuro della guerra ai tempi dell’Intelligenza Artificiale

M. Alessandra Filippi

Ecco come l'esercito israeliano usa l'intelligenza artificiale per “scegliere” chi uccidere

Israele e l'Intelligenza artificiale

Un’indagine condotta dalla testata indipendente israeliana +972 e Local Call, pubblicata lo scorso 3 aprile, ha rivelato che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale denominato “Lavender”. “Un programma di omicidi di massa di dimensioni senza precedenti che combina il targeting algoritmico con un’elevata tolleranza per la morte e il ferimento dei civili circostanti”. Un algoritmo in grado di tracciare i nomi di quasi tutti gli abitanti della Striscia di Gaza, raccogliere input di intelligence su di loro e scegliere chi uccidere. Con un margine di errore del 10%.

In un rapporto della rivista Foreign Policy, pubblicato lo scorso 2 maggio, viene affermato che dopo gli attacchi del 7 ottobre l'esercito israeliano ha cambiato la strategia sulla base della quale determinare chi prendere di mira: al posto di una attenta selezione degli obiettivi - leader armati di alto o medio rango-, ha scelto di avvalersi degli innovativi strumenti forniti dall’intelligenza artificiale. Una scelta che “Rappresenta un nuovo pericoloso orizzonte nell’interazione uomo-macchina nei conflitti, una tendenza che non si limita solo a Israele”.

Basandosi sui resoconti dell’inchiesta investigativa di Local Call e +972 Magazine, il rapporto prosegue descrivendo il modo in cui “Lavender” opera: “il sistema tiene traccia di quasi tutti gli abitanti di Gaza e raccoglie molti input di intelligence come videoclip e messaggi provenienti da siti, social network, incluse semplici analisi delle reti di comunicazione. Sulla base dei dati raccolti l’algoritmo è in grado di determinare la possibilità che una persona sia un combattente di Hamas o che appartenga ad altri gruppi palestinesi armati”.

Dopo aver identificato gli obiettivi umani, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti umani alla quale spetta il compito di verificarli "in un tempo massimo stimato di soli 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti umani consigliano un attacco aereo”.

LEGGI ANCHE: Gaza, Netanyahu prosegue col massacro: "No alla fine della guerra con Hamas"

Il rapporto afferma inoltre, che la valutazione del margine di errore è lasciata alla descrizione dell'esercito israeliano il quale lo considera “accettabile, date le circostanze”. Un altro sistema di informazione, denominato "Where is my dad?" (dov’è mio padre?), è in grado di determinare se le persone prese di mira sono a casa o fuori.

Sempre sul sito web israeliano Local Call, al quale si deve la pubblicazione di numerosi rapporti di giornalismo investigativo su questo argomento, viene riportato che "l'esercito israeliano preferisce colpire le persone identificate come target nelle loro case, questo perché raggiungerle è molto più facile rispetto a prenderle di mira durante l'attacco". Inoltre si legge che “le famiglie degli obiettivi e i loro vicini, considerati come potenziali membri di Hamas, sono visti dall'esercito israeliano come un danno collaterale di scarsa importanza”.

In un'intervista a Local Call, un ufficiale dell'intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", poiché membri di basso rango di Hamas, ma tuttavia considerati “obiettivi legittimi” perché classificati come combattenti, “anche se non di grande rilievo”.

Vien da chiedersi come possano essere ritenuti “obiettivi legittimi” gli oltre 15.000 bambini trucidati in questi mesi, la maggior parte dei quali di età compresa fra gli 0 e 10 anni, e le oltre 10.000 donne rimaste uccise negli attacchi. Anche loro erano potenziali membri di basso rango di Hamas?

Alla luce di tutto ciò che è emerso ad oggi su come Israele e il suo esercito stiano conducendo la guerra a Gaza, sembra legittimo considerare una negligenza criminale la volontà di colpire obiettivi “selezionati” pur sapendo che il rischio di morte di coloro che li circondano è elevatissimo. E pur avendo contezza che per ucciderne uno la possibilità di massacrarne altri 20, 30, 40 è quasi una certezza.

E questo malgrado l'esercito israeliano si ostini a dichiarare “di non prendere di mira i civili”, basando tale affermazione sul fatto che l’algoritmo “Lavender” seleziona i suoi obiettivi “solo tra i militanti”. Che i civili palestinesi siano invece oggetto di attacchi indiscriminati da parte dell’IDF è invece una certezza per l’avvocato e accademico francese Gilles Devers, che nel novembre 2023 ha riunito in soli 10 giorni un esercito di legali di diversi Paesi per perseguire il regime d’occupazione israeliano per i suoi crimini di guerra contro i palestinesi.

Gilles Devers, e gli oltre 300 avvocati di diverse nazionalità che compongono la sua squadra, rappresenta le vittime palestinesi presso la Corte penale internazionale e ha presentato una petizione di denuncia per l'inclusione degli attacchi di Israele e del crimine di genocidio nelle indagini. Nelle dichiarazioni rilasciate ai giornalisti, ha promesso al popolo palestinese di difenderlo. “Non avevate nessuno che vi difendesse, ma ora avete un esercito che vi difenderà nei tribunali internazionali e nazionali”.

Un esercito che ritiene che "gli attacchi delle forze armate israeliane a Gaza non abbiano rispettato gli standard ragionevoli del principio di proporzionalità". Che tradotto vuol dire che “che tali mancanze potrebbero costituire crimini di guerra”.