Di Yuval Abraham, +972 Magazine (versione tradotta e pubblicata da il manifesto)
Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.». In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra. Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».
Una tale macchina, si è scoperto, esiste davvero.
Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.
Secondo sei ufficiali di intelligence israeliani – i quali hanno tutti servito nell’esercito durante la guerra attuale nella Striscia di Gaza e sono stati direttamente coinvolti nell’uso dell’Ia per generare obiettivi da assassinare – Lavender ha giocato un ruolo centrale nei bombardamenti senza precedenti dei palestinesi, specialmente durante le fasi iniziali della guerra.
Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente consideravano gli output prodotti dall’intelligenza artificiale «come se fossero decisioni umane».
Formalmente, il sistema Lavender è progettato per individuare tutti i sospetti miliziani dei rami militari di Hamas e del Jihad Islami, inclusi quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno raccontato a +972 e Local Call che, durante le prime settimane della guerra, l’esercito ha quasi completamente fatto affidamento su Lavender, che ha contrassegnato come sospetti militanti fino a 37mila palestinesi – e le loro case – per possibili attacchi aerei.
DURANTE le prime fasi della guerra, l’esercito ha dato un ampio via libera agli ufficiali per adottare le liste di obiettivi da uccidere generate da Lavender, senza porre alcuna condizione di controllare accuratamente il motivo per cui la macchina aveva fatto quelle scelte, o di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha dichiarato che il personale umano spesso agiva solo come «timbro di approvazione» per le decisioni prese dalla macchina, aggiungendo che, personalmente, dedicava in media solo circa «20 secondi» a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschie.
E questo nonostante fosse consapevole che il sistema commette quelli che vengono considerati «errori» in circa il 10 percento dei casi, ed è noto che occasionalmente vengano contrassegni individui che hanno solo un vago legame con gruppi militanti, o perfino nessuno.
Inoltre, l’esercito israeliano ha sistematicamente attaccato i bersagli mentre si trovavano nelle loro case – di solito la notte mentre erano presenti le loro intere famiglie – piuttosto che durante il corso delle attività militari. Secondo le fonti questo accadeva perché, da quella che consideravano una prospettiva di intelligence, individuare gli individui nelle loro case private era più semplice.
Sistemi automatizzati aggiuntivi, tra cui uno chiamato Where’s Daddy? – anch’esso reso noto in questo articolo per la prima volta – sono stati utilizzati specificamente per rintracciare gli obiettivi e effettuare i bombardamenti quando erano entrati nelle loro abitazioni familiari.
Il risultato, come testimoniano le fonti, è che migliaia di palestinesi – la maggior parte donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dai bombardamenti israeliani, specialmente durante le prime settimane della guerra, a causa delle decisioni dell’intelligenza artificiale.
«Non ci interessava uccidere militanti di Hamas solo quando si trovavano in un edificio militare, o erano impegnati in un’attività militare – ha detto A., un ufficiale dell’intelligence, a +972 e Local Call – Al contrario, le Idf li hanno bombardati nelle loro case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è progettato per cercarli in queste situazioni».
La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, The Gospel, su cui sono state rivelate informazioni in un’indagine precedente, del novembre 2023, di +972 e Local Call, così come in pubblicazioni dello stesso esercito israeliano. Una differenza fondamentale tra i due sistemi risiede nella definizione del bersaglio: mentre The Gospel contrassegna edifici e strutture da cui, secondo l’esercito, operano i militanti, Lavender contrassegna le persone e le inserisce in una kill list.
INOLTRE, secondo le fonti, quando si trattava di individuare presunti militanti di rango inferiore contrassegnati da Lavender, l’esercito preferiva utilizzare solo missili non guidati, comunemente noti come dumb bombs, bombe stupide (in contrasto con le bombe di precisione «smart»), che possono distruggere interi edifici insieme ai loro occupanti e causare un numero significativo di vittime.
«Non si vogliono sprecare bombe costose per persone di scarsa importanza – è molto costoso per il Paese e di queste bombe c’è una carenza», ha detto C., uno degli ufficiali di intelligence.
Un’altra fonte ha affermato di aver autorizzato personalmente il bombardamento di «centinaia» di case private di presunti miliziani di basso rango contrassegnati da Lavender: molti di questi attacchi hanno ucciso come «danni collaterali» civili e intere famiglie.
Nell’immagine: Soccorritori e civili alla ricerca di sopravvissuti al bombardamento israeliano della casa della famiglia Zorob, nella città di Rafah