[PALESTINA] Lavender e “Where is daddy?”: l’intelligenza artificiale che dirige i bombardamenti di Israele a Gaza

2 months ago 39

Riceviamo e pubblichiamo questo contributo dai compagni della redazione Il Pungolo Rosso, già disponibile sul loro sito (vedi qui):

Questa eccellente e agghiacciante indagine di Yuval Abraham per il giornale israeliano +972 ha ormai fatto il giro del mondo – se perfino il segretario dell’ONU si è sentito in dovere di riprendere la sua denuncia, e il governo genocida di Netanyahu – da mentitore professionale qual è – di bollarla come infondata. Ma la sua meritata notorietà non è una buona ragione per non portarla oggi, nella sua interezza, all’attenzione dei nostri lettori. Ne avevamo avuto immediata segnalazione dal compagno Enzo I., la cui traduzione per il blog Oltre il ponte qui riprendiamo.

[Ne è stata fatta un’altra per Pagine esteri: https://pagineesteri.it/2024/04/05/medioriente/lavender-la-macchina-di-intelligenza-artificiale-che-dirige-i-bombardamenti-di-israele-su-gaza/ ]

E’ altro materiale prezioso per comprendere come per la guerra in atto a Gaza il termine genocidio sia tutt’altro che esagerato, se applicato all’azione dello stato sionista. E come sia possibile, perfettamente possibile, programmare gli strumenti di IA per questo scopo, che non è intrinseco alla IA, pur sempre concepita e diretta dalla “intelligenza umana”, in questo caso applicata al massacro su grande scala della popolazione palestinese di Gaza.

Redazione Il Pungolo Rosso

https://www.972mag.com/lavender-ai-israeli-army-gaza

Dopo averne curato la traduzione in italiano (che speriamo sia all’altezza) pubblichiamo un altro importante articolo di Yuval Abraham appena uscito sul magazine online della sinistra israeliana +972, che documenta l’ampio ricorso dell’Esercito sionista all’intelligenza artificiale nel genocidio attualmente in corso a Gaza. Materiale importante per sostenere e rilanciare il boicottaggio di ogni collaborazione accademica con le Università israeliane e in generale contro ogni attività economica riconducibile allo Stato sionista responsabile del primo genocidio automatizzato della storia umana. 

Lavender

La macchina AI

che dirige i bombardamenti di Israele a Gaza

L’esercito israeliano ha contrassegnato decine di migliaia di gazawi come sospetti per l’assassinio , utilizzando un sistema di puntamento AI con poca supervisione umana e una politica permissiva per le vittime, rivelano +972 e Local Call.

Di Yuval Abraham, 3 aprile 2024

Nel 2021, un libro intitolato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” (Come creare una sinergia tra intelligenza umana e artificiale che rivoluzionerà il nostro mondo) è stato pubblicato in inglese con lo pseudonimo di “Brigadier General Y.S.”. In esso l’autore – un uomo che, come abbiamo confermato, è l’attuale comandante dell’unità d’élite israeliana 8200 – sostiene la necessità di progettare una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” da colpire in guerra. Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per la localizzazione dei nuovi obiettivi che per il processo decisionale di approvazione degli stessi”.

Una macchina del genere, a quanto pare, esiste davvero. Una nuova inchiesta di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, svelato qui per la prima volta. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra contro la Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per generare obiettivi [umani] da assassinare, Lavender ha svolto un ruolo centrale nei bombardamenti senza precedenti contro i palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari è stata tale da indurre i militari a trattare i risultati dell’IA “come se si trattasse di una decisione umana”.

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operatori delle ali militari di Hamas e della Jihad islamica palestinese (PIJ), anche quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato ben 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito diede ampia approvazione agli ufficiali per l’adozione delle liste di uccisioni di Lavender, senza alcun obbligo di verificare a fondo il motivo per cui la macchina aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha dichiarato che il personale umano spesso serviva solo come “timbro di gomma” per le decisioni della macchina, aggiungendo che, di solito, dedicava personalmente solo “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschile. Questo nonostante si sappia che il sistema commette quelli che vengono considerati “errori” in circa il 10% dei casi, e che è noto per contrassegnare occasionalmente individui che hanno solo un legame debole con i gruppi militanti, o nessun legame.

Inoltre, l’esercito israeliano ha sistematicamente attaccato le persone prese di mira mentre si trovavano nelle loro case – di solito di notte, mentre erano presenti tutte le loro famiglie – piuttosto che durante le attività militari. Secondo le fonti, questo avveniva perché, da quello che consideravano un punto di vista di intelligence, era più facile localizzare gli individui nelle loro case private. Altri sistemi automatizzati, tra cui uno chiamato “Where is daddy?”, anch’esso rivelato qui per la prima volta, sono stati utilizzati specificamente per rintracciare gli individui presi di mira ed effettuare attentati quando erano entrati nelle loro residenze familiari.

Palestinesi spengono come possono un fuoco dopo un bombardamento al campo profughi di Shaboura a Gaza (Abed Rahim Khatib/Flash90)

Il risultato, come testimoniato dalle fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto nelle prime settimane di guerra, a causa delle decisioni del programma AI.

Non ci interessava uccidere gli operativi [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare”, ha dichiarato A., un ufficiale dell’intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni”.

La macchina Lavender si aggiunge a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, oltre che nelle pubblicazioni dell’esercito israeliano. Una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre il Vangelo contrassegna gli edifici e le strutture da cui, secondo l’esercito, operano i militanti, Lavender contrassegna le persone – e le inserisce in una lista di uccisioni.

Inoltre, secondo le fonti, quando si trattava di colpire i presunti militanti minori, di basso rango, segnalati da Lavender, l’esercito preferiva usare solo missili non guidati, comunemente noti come bombe “mute” (in contrasto con le bombe di precisione “intelligenti”), che possono distruggere interi edifici sopra i loro occupanti e causare vittime significative. “Non si vogliono sprecare bombe costose per persone non importanti – è molto costoso per il Paese e c’è una carenza [di queste bombe]”, ha detto C., uno degli ufficiali dell’intelligence. Un’altra fonte ha dichiarato di aver autorizzato personalmente il bombardamento di “centinaia” di case private di presunti agenti minori segnalati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come “danni collaterali”.

In una mossa senza precedenti, secondo due delle fonti, l’esercito ha anche deciso durante le prime settimane di guerra che, per ogni militante minore di Hamas contrassegnato da Lavender, era permesso uccidere fino a 15 o 20 civili; in passato, l’esercito non autorizzava alcun “danno collaterale” durante l’assassinio di militanti di basso rango. Le fonti hanno aggiunto che, nel caso in cui l’obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha autorizzato in diverse occasioni l’uccisione di più di 100 civili nell’assassinio di un singolo comandante.

Parenti aspettano i corpi dei propri familiari all’ospedale al-Najiar a Rafah, 24 ottobre 2023 (Abed Rahim Khatib/Flash90)

La seguente indagine è organizzata secondo le sei fasi cronologiche della produzione di bersagli altamente automatizzati da parte dell’esercito israeliano nelle prime settimane della guerra a Gaza. In primo luogo, spieghiamo la macchina Lavender stessa, che ha marcato decine di migliaia di palestinesi utilizzando l’intelligenza artificiale. In secondo luogo, riveliamo il sistema “Where is daddy?”, che tracciava questi obiettivi e segnalava all’esercito quando entravano nelle case delle famiglie. In terzo luogo, descriviamo come sono state scelte le bombe “mute” per colpire queste case.

In quarto luogo, spieghiamo come l’esercito abbia allargato il numero di civili che potevano essere uccisi durante il bombardamento di un obiettivo. In quinto luogo, notiamo come un software automatico abbia calcolato in modo impreciso la quantità di non combattenti in ogni famiglia. In sesto luogo, mostriamo come in diverse occasioni, quando una casa è stata colpita, di solito di notte, l’obiettivo individuale a volte non era affatto all’interno, perché gli ufficiali militari non hanno verificato le informazioni in tempo reale.

FASE 1: GENERAZIONE DEI TARGET

Una volta che si passa all’automatismo, la generazione dei bersagli impazzisce”.

Nell’esercito israeliano, il termine “bersaglio umano” si riferiva in passato a un agente militare di alto livello che, secondo le regole del Dipartimento di diritto internazionale dell’esercito, può essere ucciso nella sua casa privata anche se ci sono civili nei dintorni. Fonti dell’intelligence hanno riferito a +972 e a Local Call che durante le precedenti guerre israeliane, poiché si trattava di un modo “particolarmente brutale” di uccidere qualcuno – spesso uccidendo un’intera famiglia accanto al bersaglio – questi obiettivi umani erano contrassegnati con molta attenzione e solo i comandanti militari di alto livello venivano bombardati nelle loro case, per mantenere il principio di proporzionalità previsto dal diritto internazionale.

Ma dopo il 7 ottobre – quando i militanti guidati da Hamas hanno lanciato un assalto mortale contro le comunità israeliane meridionali, uccidendo circa 1.200 persone e sequestrandone 240 – l’esercito, secondo le fonti, ha adottato un approccio radicalmente diverso. Nell’ambito dell’operazione “Spade di ferro”, l’esercito ha deciso di designare tutti gli operatori dell’ala militare di Hamas come obiettivi umani, indipendentemente dal loro grado o dalla loro importanza militare. E questo ha cambiato tutto.

La nuova politica ha posto anche un problema tecnico all’intelligence israeliana. Nelle guerre precedenti, per autorizzare l’assassinio di un singolo bersaglio umano, un ufficiale doveva passare attraverso un complesso e lungo processo di “incriminazione”: controllare le prove che la persona fosse effettivamente un membro di alto livello dell’ala militare di Hamas, scoprire dove viveva, le sue informazioni di contatto e infine sapere quando era a casa in tempo reale. Quando l’elenco dei bersagli era composto solo da poche decine di alti funzionari, il personale dell’intelligence poteva gestire individualmente il lavoro necessario per incriminarli e localizzarli.

Gazawi provano a salvare i sopravvissuti a un bombardamento IDF vicino all’ospedale dei martiri di Al-Aqsa a Deir al Balah. 22 ottobre 2023. (Mohammed Zaanoun/Activestills)

Tuttavia, una volta che l’elenco è stato ampliato per includere decine di migliaia di agenti di grado inferiore, l’esercito israeliano ha pensato di doversi affidare a software automatizzati e all’intelligenza artificiale. Il risultato, testimoniano le fonti, è stato che il ruolo del personale umano nell’incriminare i palestinesi come agenti militari è stato messo da parte e l’intelligenza artificiale ha svolto la maggior parte del lavoro. Secondo quattro delle fonti che hanno parlato con +972 e Local Call, Lavender – che è stato sviluppato per creare obiettivi umani nella guerra in corso – ha contrassegnato circa 37.000 palestinesi come sospetti “militanti di Hamas”, la maggior parte dei quali minori, da assassinare (il portavoce dell’IDF ha negato l’esistenza di tale lista di uccisioni in una dichiarazione a +972 e Local Call).

“Non sapevamo chi fossero i militanti palestinesi “minori”, perché Israele non li rintracciava abitualmente [prima della guerra]”, ha spiegato l’ufficiale superiore B. a +972 e Local Call, spiegando la ragione dietro lo sviluppo di questa particolare macchina di bersagli per la guerra in corso. “Volevano permetterci di attaccare [i militanti minori] automaticamente. Questo è il Santo Graal. Una volta che si passa all’automatismo, la generazione dei bersagli impazzisce”.

Le fonti hanno detto che l’approvazione per l’adozione automatica delle liste di uccisioni di Lavender, che in precedenza erano state usate solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio della guerra, dopo che il personale dell’intelligence ha controllato “manualmente” l’accuratezza di un campione casuale di diverse centinaia di obiettivi selezionati dal sistema di intelligenza artificiale. Quando tale campione ha rilevato che i risultati di Lavender avevano raggiunto un’accuratezza del 90% nell’identificare l’affiliazione di un individuo ad Hamas, l’esercito ha autorizzato l’uso generalizzato del sistema. Da quel momento, le fonti hanno detto che se Lavender decideva che un individuo era un militante di Hamas, veniva chiesto loro di trattarlo essenzialmente come un ordine, senza alcun obbligo di verificare in modo indipendente perché la macchina avesse fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si basa.

Alle 5 del mattino, [l’aviazione] veniva a bombardare tutte le case che avevamo contrassegnato”, ha detto B.. “Abbiamo fatto fuori migliaia di persone. Non le abbiamo esaminate una per una – abbiamo inserito tutto in sistemi automatici, e non appena uno [degli individui contrassegnati] era in casa, diventava immediatamente un obiettivo. Abbiamo bombardato lui e la sua casa”.

“È stato molto sorprendente per me che ci sia stato chiesto di bombardare una casa per uccidere un soldato di terra, la cui importanza nei combattimenti era così bassa”, ha detto una fonte sull’uso dell’IA per marcare presunti militanti di basso rango. “Ho soprannominato questi obiettivi “bersagli spazzatura”. Tuttavia, li trovavo più etici degli obiettivi che bombardavamo solo per ‘deterrenza’ – grattacieli che venivano evacuati e rovesciati solo per causare distruzione”.

I risultati mortali di questo allentamento delle restrizioni nella fase iniziale della guerra sono stati sconcertanti. Secondo i dati del Ministero della Sanità palestinese a Gaza, su cui l’esercito israeliano ha fatto affidamento quasi esclusivamente dall’inizio della guerra, Israele ha ucciso circa 15.000 palestinesi – quasi la metà del bilancio delle vittime finora – nelle prime sei settimane di guerra, fino a quando non è stato concordato un cessate il fuoco di una settimana il 24 novembre.

Massive destruction is seen in Al-Rimal popular district of Gaza City after it was targeted by airstrikes carried out by Israeli colonial, October 10, 2023. (Mohammed Zaanoun)

Più informazioni e varietà ci sono, meglio è”.

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni particolare persona sia attiva nell’ala militare di Hamas o PIJ. Secondo le fonti, la macchina assegna a quasi ogni singola persona di Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante.

Lavender impara a identificare le caratteristiche degli operativi noti di Hamas e PIJ, le cui informazioni sono state fornite alla macchina come dati di addestramento, e poi a individuare queste stesse caratteristiche tra la popolazione generale, hanno spiegato le fonti. Un individuo che presenta diverse caratteristiche incriminanti raggiunge un punteggio elevato e diventa automaticamente un potenziale bersaglio per l’assassinio.

In “The Human-Machine Team”, il libro citato all’inizio di questo articolo, l’attuale comandante dell’Unità 8200 sostiene la necessità di un sistema di questo tipo senza fare riferimento a Lavender. (Anche il comandante stesso non viene nominato, ma cinque fonti dell’8200 hanno confermato che il comandante è l’autore, come riportato anche da Haaretz). Descrivendo il personale umano come un “collo di bottiglia” che limita la capacità dell’esercito durante un’operazione militare, il comandante si lamenta: “Noi [umani] non possiamo elaborare così tante informazioni. Non importa quante persone siano incaricate di produrre obiettivi durante la guerra: non si riesce comunque a produrre abbastanza obiettivi al giorno”.

La soluzione a questo problema, dice, è l’intelligenza artificiale. Il libro offre una breve guida alla costruzione di una “macchina per obiettivi”, simile nella descrizione a Lavender, basata sull’intelligenza artificiale e su algoritmi di apprendimento automatico. La guida contiene diversi esempi delle “centinaia e migliaia” di caratteristiche che possono aumentare il rating di un individuo, come l’appartenenza a un gruppo Whatsapp con un militante noto, il cambio di cellulare ogni pochi mesi e il cambio frequente di indirizzo.

“Più informazioni e più varie sono, meglio è”, scrive il comandante. “Informazioni visive, informazioni cellulari, connessioni ai social media, informazioni sul campo di battaglia, contatti telefonici, foto”. Mentre gli esseri umani selezionano queste caratteristiche all’inizio, continua il comandante, col tempo la macchina arriverà a identificarle da sola. Questo, dice, può consentire alle forze armate di creare “decine di migliaia di obiettivi”, mentre la decisione effettiva se attaccarli o meno rimarrà umana.

Il libro non è l’unica volta che un alto comandante israeliano ha accennato all’esistenza di macchine bersaglio umane come Lavender. +972 e Local Call hanno ottenuto il filmato di una conferenza privata tenuta dal comandante del centro segreto di Data Science e IA dell’Unità 8200, il “Col. Yoav”, alla settimana dell’IA dell’Università di Tel Aviv nel 2023, di cui i media israeliani hanno parlato all’epoca.

Nella conferenza, il comandante parla di una nuova e sofisticata macchina bersaglio utilizzata dall’esercito israeliano che individua “persone pericolose” in base alla loro somiglianza con gli elenchi esistenti di militanti noti sui quali è stata addestrata. “Usando il sistema, siamo riusciti a identificare i comandanti delle squadre missilistiche di Hamas”, ha detto il col. Yoav nella conferenza, riferendosi all’operazione militare israeliana del maggio 2021 a Gaza, quando la macchina è stata usata per la prima volta.

[Le diapositive di una conferenza del comandante del centro Data Science e AI dell’unità 8200 dell’IDF all’Università di Tel Aviv nel 2023, ottenute da +972 e Local Call ]

[ Le diapositive di una conferenza del comandante del centro Data Science e AI dell’unità 8200 dell’IDF all’Università di Tel Aviv nel 2023, ottenute da +972 e Local Call ]

Le diapositive di presentazione della conferenza, ottenute anche da +972 e Local Call, contengono illustrazioni di come funziona la macchina: le vengono forniti dati sugli agenti di Hamas esistenti, impara a notare le loro caratteristiche e poi valuta altri palestinesi in base a quanto sono simili ai militanti.

“Classifichiamo i risultati e determiniamo la soglia [a cui attaccare un obiettivo]”, ha detto il col. Yoav nella conferenza, sottolineando che “alla fine le decisioni vengono prese da persone in carne e ossa”. Nel settore della difesa, dal punto di vista etico, poniamo molta enfasi su questo aspetto. Questi strumenti sono pensati per aiutare [gli ufficiali dell’intelligence] a rompere le loro barriere”.

In pratica, tuttavia, le fonti che hanno utilizzato Lavender negli ultimi mesi dicono che l’azione umana e la precisione sono state sostituite dalla creazione di bersagli di massa e dalla letalità.

Non c’era una politica di “zero errori”.

B., un ufficiale superiore che utilizzava Lavender, ha dichiarato a +972 e Local Call che nella guerra in corso gli ufficiali non erano tenuti a rivedere in modo indipendente le valutazioni del sistema di intelligenza artificiale, per risparmiare tempo e consentire la produzione di massa di obiettivi umani senza ostacoli.

“Tutto era statistico, tutto era ordinato – era molto asciutto”, ha detto B. Ha osservato che questa mancanza di supervisione è stata permessa nonostante i controlli interni mostrassero che i calcoli di Lavender erano considerati accurati solo il 90% delle volte; in altre parole, si sapeva in anticipo che il 10% degli obiettivi umani destinati all’assassinio non erano affatto membri dell’ala militare di Hamas.

Ad esempio, le fonti hanno spiegato che la macchina Lavender a volte segnalava erroneamente individui che avevano modelli di comunicazione simili a quelli di operatori noti di Hamas o PIJ – tra cui lavoratori della polizia e della protezione civile, parenti di militanti, residenti che avevano un nome e un soprannome identici a quelli di un operatore e gazawi che usavano un dispositivo appartenuto a un operatore di Hamas.

“Quanto deve essere vicina una persona ad Hamas per essere [considerata da una macchina AI come affiliata all’organizzazione?”, ha detto una fonte critica dell’imprecisione di Lavender. “È un confine vago. Una persona che non riceve uno stipendio da Hamas, ma che la aiuta in ogni genere di cose, è un agente di Hamas? Una persona che ha fatto parte di Hamas in passato, ma che oggi non ne fa più parte, è un operativo di Hamas? Ognuna di queste caratteristiche – caratteristiche che una macchina segnalerebbe come sospette – è imprecisa”.

Bombardamento israeliano a Rafah. Striscia di Gaza, 24 febbraio 2024 (Abed Rahim Khatib/Flash90)

Problemi simili esistono per quanto riguarda la capacità delle macchine bersaglio di valutare il telefono utilizzato da un individuo segnalato per l’assassinio. “In guerra, i palestinesi cambiano continuamente telefono”, ha detto la fonte. “Le persone perdono i contatti con le loro famiglie, danno il loro telefono a un amico o alla moglie, magari lo perdono. Non c’è modo di affidarsi al 100% al meccanismo automatico che determina quale numero [di telefono] appartiene a chi”.

Secondo le fonti, l’esercito sapeva che la minima supervisione umana presente non avrebbe scoperto questi difetti. “Non c’era una politica di ‘zero errori’. Gli errori venivano trattati statisticamente”, ha detto una fonte che ha usato Lavender. “A causa della portata e dell’ampiezza, il protocollo prevedeva che anche se non si è sicuri che la macchina sia giusta, si sa che statisticamente va bene. Quindi lo si sceglie”.

“Si è dimostrato valido”, ha detto B., la fonte più anziana. “C’è qualcosa nell’approccio statistico che ti impone una certa norma e un certo standard. C’è stata una quantità illogica di [attentati] in questa operazione. A mia memoria, non ha precedenti. Ho molta più fiducia in un meccanismo statistico che in un soldato che ha perso un amico due giorni fa. Tutti, me compreso, hanno perso delle persone il 7 ottobre. La macchina lo ha fatto freddamente. E questo ha reso tutto più facile”.

Un’altra fonte dell’intelligence, che ha difeso l’affidabilità delle liste di uccisioni di sospetti palestinesi generate da Lavender, ha sostenuto che vale la pena investire il tempo di un ufficiale dell’intelligence solo per verificare le informazioni se l’obiettivo è un alto comandante di Hamas. “Ma quando si tratta di un giovane militante, non si vuole investire manodopera e tempo”, ha detto. “In guerra, non c’è tempo per incriminare ogni obiettivo. Quindi si è disposti ad accettare il margine di errore dell’uso dell’intelligenza artificiale, rischiando danni collaterali e la morte di civili, rischiando di attaccare per errore, e a conviverci”.

B. ha detto che la ragione di questa automazione è una spinta costante a generare più obiettivi da assassinare. “In un giorno senza obiettivi [il cui rating era sufficiente per autorizzare un attacco], abbiamo attaccato a una soglia più bassa. Ci facevano costantemente pressione: ‘Portateci più obiettivi’. Ci urlavano davvero contro. Abbiamo finito di [uccidere] i nostri obiettivi molto rapidamente”.

Ha spiegato che abbassando la soglia di valutazione di Lavender, il sistema segnalava un maggior numero di persone come bersagli per gli attacchi. “Al suo apice, il sistema è riuscito a generare 37.000 persone come potenziali obiettivi umani”, ha detto B. “Ma i numeri cambiavano continuamente, perché dipendeva da dove si impostava l’asticella di cosa fosse un agente di Hamas. Ci sono stati momenti in cui un agente di Hamas è stato definito in modo più ampio, e poi la macchina ha iniziato a portarci tutti i tipi di personale della protezione civile, ufficiali di polizia, su cui sarebbe un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono in pericolo i soldati”.

Palestinese cammina sulle macerie di un edificio bombardato a Rafah, 18 marzo 2024 (Abed Rahim Khatib/Flash90)

Una fonte che ha lavorato con il team di data science militare che ha addestrato Lavender ha detto che nella macchina sono stati inseriti anche i dati raccolti dai dipendenti del Ministero della Sicurezza Interna gestito da Hamas, che lui non considera militanti. “Mi ha infastidito il fatto che, quando Lavender è stato addestrato, hanno usato il termine ‘agente di Hamas’ in modo generico, includendo nel set di dati dell’addestramento anche persone che lavoravano nella difesa civile”, ha detto.

La fonte ha aggiunto che, anche se si ritiene che queste persone meritino di essere uccise, l’addestramento del sistema basato sui loro profili di comunicazione ha reso più probabile che Lavender selezioni per errore i civili quando i suoi algoritmi vengono applicati alla popolazione generale. “Poiché si tratta di un sistema automatico che non viene gestito manualmente dagli esseri umani, il significato di questa decisione è drammatico: significa che si stanno includendo molte persone con un profilo di comunicazione civile come potenziali obiettivi”.

Abbiamo solo controllato che l’obiettivo fosse un uomo”.

L’esercito israeliano respinge categoricamente queste affermazioni. In una dichiarazione rilasciata a +972 e Local Call, il portavoce dell’IDF ha negato l’uso dell’intelligenza artificiale per incriminare gli obiettivi, affermando che si tratta solo di “strumenti ausiliari che assistono gli ufficiali nel processo di incriminazione”. La dichiarazione ha proseguito: “In ogni caso, è necessario un esame indipendente da parte di un analista [dell’intelligence], che verifichi che gli obiettivi identificati siano obiettivi legittimi da attaccare, in conformità con le condizioni stabilite dalle direttive dell’IDF e dal diritto internazionale”.

Tuttavia, le fonti hanno detto che l’unico protocollo di supervisione umana in vigore prima di bombardare le case di sospetti militanti “minori” contrassegnati da Lavender è stato quello di condurre un unico controllo: assicurarsi che l’obiettivo selezionato dall’AI fosse maschio e non femmina. Il presupposto nell’esercito era che se si trattava di una donna, la macchina aveva probabilmente commesso un errore, perché non ci sono donne tra i ranghi delle ali militari di Hamas e PIJ.

“Un essere umano doveva [verificare l’obiettivo] solo per pochi secondi”, ha detto B., spiegando che questo è diventato il protocollo dopo aver capito che il sistema Lavender “ci azzeccava” la maggior parte delle volte. “All’inizio facevamo dei controlli per assicurarci che la macchina non si confondesse. Ma a un certo punto ci siamo affidati al sistema automatico e ci siamo limitati a controllare che [l’obiettivo] fosse un uomo: era sufficiente. Non ci vuole molto tempo per capire se qualcuno ha una voce maschile o femminile”.

Per effettuare il controllo maschio/femmina, B. ha affermato che nella guerra in corso “investirei 20 secondi per ogni obiettivo in questa fase, e ne farei decine ogni giorno. Non avevo alcun valore aggiunto come essere umano, se non quello di essere un timbro di approvazione. Si risparmiava un sacco di tempo. Se [il militante palestinese] si presentava nel meccanismo automatico, e io controllavo che fosse un uomo, avrei avuto il permesso di bombardarlo, previo esame dei danni collaterali”.

Palestinesi salvati dalle macerie di un bombardamento israeliano a Rafah nel novembre 2023 (Abed Rahim Khatib/Flash90)

In pratica, secondo le fonti, ciò significava che per gli uomini civili segnalati per errore da Lavender, non esisteva alcun meccanismo di supervisione per rilevare l’errore. Secondo B., un errore comune si verificava “se l’obiettivo [di Hamas] dava [il suo telefono] a suo figlio, a suo fratello maggiore o a un uomo a caso. Quella persona sarà bombardata in casa sua con la sua famiglia. Questo accadeva spesso. Questi erano la maggior parte degli errori causati da Lavender”, ha detto B..

FASE 2: COLLEGARE GLI OBIETTIVI ALLE CASE DELLE FAMIGLIE

“La maggior parte delle persone uccise erano donne e bambini”.

La fase successiva della procedura di assassinio dell’esercito israeliano consiste nell’identificare dove attaccare gli obiettivi generati da Lavender.

In una dichiarazione rilasciata a +972 e Local Call, il portavoce dell’IDF ha affermato, in risposta a questo articolo, che “Hamas colloca i suoi operativi e i suoi mezzi militari nel cuore della popolazione civile, usa sistematicamente la popolazione civile come scudi umani e conduce i combattimenti dall’interno di strutture civili, compresi siti sensibili come ospedali, moschee, scuole e strutture delle Nazioni Unite. L’IDF è vincolato e agisce secondo il diritto internazionale, dirigendo i suoi attacchi solo verso obiettivi militari e operatori militari”.

Le sei fonti con cui abbiamo parlato hanno fatto in parte eco a questo, affermando che il vasto sistema di tunnel di Hamas passa deliberatamente sotto ospedali e scuole; che i militanti di Hamas usano le ambulanze per spostarsi; e che innumerevoli mezzi militari sono stati situati vicino a edifici civili. Le fonti hanno sostenuto che molti attacchi israeliani uccidono civili a causa di queste tattiche di Hamas – una caratterizzazione che, secondo i gruppi per i diritti umani, elude la responsabilità di Israele nell’infliggere le vittime.

Tuttavia, in contrasto con le dichiarazioni ufficiali dell’esercito israeliano, le fonti hanno spiegato che una delle ragioni principali del numero di vittime senza precedenti dell’attuale bombardamento israeliano è il fatto che l’esercito ha sistematicamente attaccato gli obiettivi nelle loro case private, insieme alle loro famiglie – in parte perché era più facile, dal punto di vista dell’intelligence, contrassegnare le case delle famiglie utilizzando sistemi automatizzati.

In effetti, diverse fonti hanno sottolineato che, a differenza dei numerosi casi di operatori di Hamas impegnati in attività militari da aree civili, nel caso di attacchi sistematici di assassinio, l’esercito ha sistematicamente scelto di bombardare sospetti militanti all’interno di case civili da cui non si svolgeva alcuna attività militare. Questa scelta, hanno detto, è un riflesso del modo in cui è stato progettato il sistema di sorveglianza di massa di Israele a Gaza.

Palestinesi portano feriti all’ospedale al Shifa pochi giorni dopo l’inizio del genocidio. 11 ottobre 2023 (Mohammed Zaanoun/Activestills)

Le fonti hanno riferito a +972 e Local Call che, poiché ogni persona a Gaza ha una casa privata a cui può essere associata, i sistemi di sorveglianza dell’esercito possono facilmente e automaticamente “collegare” gli individui alle case di famiglia. Per identificare in tempo reale il momento in cui i militanti palestinesi entrano nelle loro case, sono stati sviluppati diversi software automatici aggiuntivi. Questi programmi tracciano migliaia di individui simultaneamente, identificano quando sono in casa e inviano un allarme automatico all’ufficiale di puntamento, che poi contrassegna la casa per il bombardamento. Uno di questi software di tracciamento, rivelato qui per la prima volta, si chiama “Where is daddy?”.

“Si inseriscono centinaia di obiettivi nel sistema e si aspetta di vedere chi si può uccidere”, ha detto una fonte a conoscenza del sistema. “Si chiama caccia ampia: si fa copia-incolla dalle liste che il sistema di obiettivi produce”.
La prova di questa politica è evidente anche dai dati: durante il primo mese di guerra, più della metà delle vittime – 6.120 persone – apparteneva a 1.340 famiglie, molte delle quali sono state completamente spazzate via mentre si trovavano all’interno delle loro case, secondo i dati delle Nazioni Unite. La percentuale di intere famiglie bombardate nelle loro case nell’attuale guerra è molto più alta rispetto all’operazione israeliana del 2014 a Gaza, il che suggerisce ulteriormente l’importanza di questa politica.

Un’altra fonte ha detto che ogni volta che il ritmo degli assassinii diminuiva, venivano aggiunti altri obiettivi a sistemi come Where’s Daddy? per individuare gli individui che entravano nelle loro case e potevano quindi essere bombardati. Ha detto che la decisione di chi inserire nei sistemi di localizzazione poteva essere presa da ufficiali di grado relativamente basso nella gerarchia militare.

“Un giorno, di mia spontanea volontà, ho aggiunto qualcosa come 1.200 nuovi obiettivi al sistema [di tracciamento], perché il numero di attacchi [che stavamo conducendo] era diminuito”, ha detto la fonte. “Per me aveva senso. A posteriori, sembra una decisione seria che ho preso. E tali decisioni non venivano prese ad alti livelli”.

Le fonti hanno detto che nelle prime due settimane di guerra, “diverse migliaia” di obiettivi sono stati inizialmente inseriti in programmi di localizzazione come Where is daddy? Tra questi c’erano tutti i membri dell’unità d’élite delle forze speciali di Hamas, la Nukhba, tutti gli operatori anticarro di Hamas e chiunque fosse entrato in Israele il 7 ottobre. Ma in breve tempo la lista delle vittime è stata drasticamente ampliata.

“Alla fine si trattava di tutti coloro che erano stati contrassegnati da Lavender”, ha spiegato una fonte. “Decine di migliaia. Questo è successo poche settimane dopo, quando le brigate [israeliane] sono entrate a Gaza, e c’erano già meno persone non coinvolte [cioè civili] nelle aree settentrionali”. Secondo questa fonte, anche alcuni minorenni sono stati contrassegnati da Lavender come obiettivi per i bombardamenti. “Di solito i militanti della Resistenza palestinese hanno più di 17 anni, ma questa non era una condizione”.

Feriti palestinesi nell’ospedale al shifa di Gaza, 18 ottobre 2023. Ora l’ospedale, il più importante della Striscia di Gaza, è stato completamente distrutto (Mohammed Zaanoun/Activestills).

Lavender e sistemi come Where’s Daddy? sono stati così combinati con un effetto mortale, uccidendo intere famiglie, hanno detto le fonti. Aggiungendo un nome dalle liste generate da Lavender al sistema di localizzazione domestica Where is Daddy?, ha spiegato A., la persona segnata sarebbe stata posta sotto sorveglianza continua e avrebbe potuto essere attaccata non appena avesse messo piede nella sua casa, facendo crollare la casa su tutti coloro che si trovavano all’interno. “Diciamo che c’è un [operativo] di Hamas più 10 [civili in casa]”, ha detto A. “Di solito, questi 10 saranno donne e bambini. Così, assurdamente, si scopre che la maggior parte delle persone che hai ucciso erano donne e bambini”.

FASE 3: SCELTA DI UN’ARMA – «Di solito facevamo gli attacchi con “bombe stupide”»

Una volta che Lavender ha segnato un bersaglio per l’assassinio, il personale dell’esercito ha verificato che si tratta di un maschio e il software di tracciamento ha localizzato il bersaglio nella loro casa, la fase successiva è la scelta delle munizioni con cui bombardarli. Nel dicembre 2023, la CNN ha riferito che, secondo le stime dell’intelligence statunitense, circa il 45% delle munizioni utilizzate dall’aviazione israeliana a Gaza erano bombe “stupide”, che sono note per causare più danni collaterali rispetto alle bombe guidate. In risposta al rapporto della CNN, un portavoce dell’esercito citato nell’articolo ha dichiarato: “Come esercito impegnato nel diritto internazionale e in un codice di condotta morale, stiamo dedicando vaste risorse per ridurre al minimo i danni ai civili che Hamas ha costretto a svolgere il ruolo di scudi umani. La nostra guerra è contro Hamas, non contro la gente di Gaza”.

Tre fonti di intelligence, tuttavia, hanno detto a +972 e Local Call che i militanti palestinesi “minori” contrassegnati da Lavender venivano assassinati solo con bombe stupide, nell’interesse di risparmiare armamenti più costosi. L’implicazione, ha spiegato una fonte, era che l’esercito non avrebbe colpito un obiettivo minore se avesse vissuto in un grattacielo, perché l’esercito non voleva spendere una “bomba da pavimento” più precisa e costosa (con effetti collaterali più limitati) per ucciderlo. Ma se un bersaglio minore viveva in un edificio di pochi piani, l’esercito era autorizzato a uccidere lui e tutti gli occupanti dell’edificio con una bomba stupida.

Palestinesi camminano fra le macerie di Rafah 18 marzo 2024 (Abed Rahim Khatib/Flash90)

FASE 4: AUTORIZZAZIONE DELLE VITTIME CIVILI
“Abbiamo attaccato quasi senza considerare i danni collaterali”

Una fonte ha affermato che quando attaccavano militanti palestinesi “minori”, compresi quelli contrassegnati da sistemi di intelligenza artificiale come Lavender, il numero di civili che potevano uccidere accanto a ciascun obiettivo veniva fissato fino a 20 durante le prime settimane di guerra. Un’altra fonte ha affermato che il numero fisso era fino a 15. Questi “gradi di danno collaterale”, come li chiamano i militari, sono stati applicati ampiamente a tutti i presunti militanti minori, hanno detto le fonti, indipendentemente dal loro grado, importanza militare ed età, e senza casi specifici caso per caso, esame del caso per valutare il vantaggio militare di assassinarli rispetto al danno previsto per i civili.

Secondo A., che era ufficiale in una sala operativa bersaglio della guerra in corso, il dipartimento di diritto internazionale dell’esercito non ha mai dato prima una “approvazione totale” per un livello di danni collaterali così elevato. “Non si tratta solo del fatto che si può uccidere chiunque sia un soldato di Hamas, il che è chiaramente consentito e legittimo in termini di diritto internazionale”, ha detto A.. “Ma ti dicono direttamente: ‘Puoi ucciderli insieme a molti civili’.

“Ogni persona che indossava l’uniforme di Hamas negli ultimi due anni potrebbe essere bombardata con 20 [civili uccisi come] danni collaterali, anche senza un permesso speciale”, ha continuato A.. “In pratica, il principio di proporzionalità non esisteva”.

Secondo A., questa è stata la politica per la maggior parte del tempo in cui ha prestato servizio. Solo successivamente i militari hanno abbassato il livello dei danni collaterali. “In questo calcolo potrebbero anche essere 20 bambini per un agente giovane… In realtà non era così in passato”, ha spiegato A.. Alla domanda sulla logica di sicurezza alla base di questa politica, A. ha risposto: “Letalità”.

Palestinesi ricevono i corpi dei propri parenti assassinati dai bombardamenti IDF. Foto scattata all’Al Najiar hospital di Rafah il 7 novembre 2023 (Abed Rahim Khatib/Flash90)

Il grado di danno collaterale predeterminato e fisso ha contribuito ad accelerare la creazione di massa di bersagli utilizzando la macchina Lavender, hanno detto le fonti, perché ha fatto risparmiare tempo. B. affermò che il numero di civili che potevano uccidere per ogni presunto militante “minore” contrassegnato dall’IA nella prima settimana di guerra era di quindici, ma che questo numero “andava su e giù” nel tempo.

“All’inizio abbiamo attaccato quasi senza considerare i danni collaterali”, ha detto B. della prima settimana dopo il 7 ottobre. “In pratica, non si contavano veramente le persone [in ogni casa bombardata], perché non si poteva davvero dire se sono a casa o no. Dopo una settimana sono iniziate le restrizioni sui danni collaterali. Il numero è sceso [da 15] a cinque, il che ha reso davvero difficile per noi attaccare, perché se tutta la famiglia fosse stata a casa, non avremmo potuto bombardarla. Poi hanno alzato di nuovo il numero”.

Sapevamo che avremmo ucciso più di 100 civili”

Fonti hanno riferito a +972 e Local Call che ora, in parte a causa della pressione americana, l’esercito israeliano non sta più generando in massa obiettivi umani minori da bombardare nelle case civili. Il fatto che la maggior parte delle case nella Striscia di Gaza siano già state distrutte o danneggiate, e che quasi l’intera popolazione sia stata sfollata, ha inoltre compromesso la capacità dell’esercito di fare affidamento su database di intelligence e programmi automatizzati di localizzazione delle case.

E. ha affermato che il massiccio bombardamento dei militanti palestinesi “minori” è avvenuto solo nelle prime due settimane di guerra, e poi è stato interrotto principalmente per non sprecare bombe. “Esiste un’economia delle munizioni”, ha detto E.. “Hanno sempre avuto paura che ci sarebbe stata [una guerra] nell’arena settentrionale [con Hezbollah in Libano]. Non attaccano più questo tipo di persone [minori]”.

Tuttavia, gli attacchi aerei contro gli alti comandanti di Hamas sono ancora in corso, e fonti affermano che per questi attacchi, l’esercito sta autorizzando l’uccisione di “centinaia” di civili per obiettivo – una politica ufficiale per la quale non esiste alcun precedente storico in Israele, o addirittura nelle recenti operazioni militari statunitensi.

“Nel bombardamento del comandante del battaglione Shuja’iya, sapevamo che avremmo ucciso più di 100 civili”, ha ricordato B. di un bombardamento del 2 dicembre che, secondo il portavoce dell’IDF, mirava ad assassinare Wisam Farhat. “Per me, psicologicamente, è stato insolito. Oltre 100 civili: si oltrepassa la linea rossa”.

Primi bombardamenti a Gaza. 9 ottobre 2023. (Atia Mohammed/Flash90)

Amjad Al-Sheikh, un giovane palestinese di Gaza, ha detto che molti membri della sua famiglia sono rimasti uccisi in quell’attentato. Residente a Shuja’iya, a est della città di Gaza, quel giorno si trovava in un supermercato locale quando ha sentito cinque esplosioni che hanno frantumato le finestre di vetro.

“Sono corso a casa della mia famiglia, ma non c’erano più edifici lì”, ha detto Al-Sheikh a +972 e Local Call. “La strada era piena di urla e fumo. Interi isolati residenziali si trasformarono in montagne di macerie e pozzi profondi. La gente ha cominciato a cercare nel cemento, usando le mani, e così ho fatto io, cercando i segni della casa della mia famiglia.

La moglie e la figlia piccola di Al-Sheikh sono sopravvissute – protette dalle macerie da un armadio che è caduto su di loro – ma ha trovato altri 11 membri della sua famiglia, tra cui le sue sorelle, i fratelli e i loro bambini piccoli, morti sotto le macerie. Secondo il gruppo per i diritti umani B’Tselem, i bombardamenti di quel giorno distrussero dozzine di edifici, uccisero dozzine di persone e ne seppellirono centinaia sotto le rovine delle loro case.

Intere famiglie sono state uccise”

Fonti dell’intelligence hanno detto a +972 e Local Call di aver preso parte ad attacchi ancora più mortali. Per assassinare Ayman Nofal, il comandante della Brigata Centrale di Hamas, una fonte ha detto che l’esercito ha autorizzato l’uccisione di circa 300 civili, distruggendo diversi edifici durante gli attacchi aerei sul campo profughi di Al-Bureij il 17 ottobre sulla base di un’imprecisa individuazione dei luoghi Nofal. Le riprese satellitari e i video della scena mostrano la distruzione di diversi grandi condomini a più piani.

“Tra le 16 e le 18 case sono state spazzate via durante l’attacco”, ha detto Amro Al-Khatib, un residente del campo, a +972 e Local Call. “Non riuscivamo a distinguere un appartamento dall’altro: erano tutti confusi tra le macerie e abbiamo trovato parti di corpi umani ovunque”.

In seguito, Al-Khatib ha ricordato che circa 50 cadaveri furono estratti dalle macerie e circa 200 persone ferite, molte delle quali gravemente. Ma quello era solo il primo giorno. I residenti del campo hanno trascorso cinque giorni a tirare fuori i morti e i feriti, ha detto.

Palestinesi scavano fra le macerie e trovano corpi dopo un bombardamento IDF al campo profughi Al-Maghazi nel centro della Striscia di Gaza. 5 novembre 2023 (Mohammed Zaanoun/Activestills)

Nael Al-Bahisi, un paramedico, è stato uno dei primi ad arrivare sulla scena. Quel primo giorno contò tra le 50 e le 70 vittime. “Ad un certo momento, abbiamo capito che l’obiettivo dell’attacco era il comandante di Hamas Ayman Nofal”, ha detto a +972 e Local Call. “Lo hanno ucciso, e anche molte persone che non sapevano che fosse lì. Intere famiglie con bambini sono state uccise”.

Un’altra fonte dell’intelligence ha riferito a +972 e Local Call che l’esercito ha distrutto un grattacielo a Rafah a metà dicembre, uccidendo “dozzine di civili”, per cercare di uccidere Mohammed Shabaneh, il comandante della Brigata Rafah di Hamas (non è chiaro se sia stato ucciso o meno nell’attacco). Spesso, spiega la fonte, gli alti comandanti si nascondono in tunnel che passano sotto edifici civili, e quindi la scelta di assassinarli con un attacco aereo uccide necessariamente dei civili.

“La maggior parte dei feriti erano bambini”, ha detto Wael Al-Sir, 55 anni, che ha assistito al bombardamento su larga scala ritenuto da alcuni abitanti di Gaza un tentativo di omicidio. Al-Sir ha detto a +972 e Local Call che l’attentato del 20 dicembre ha distrutto “un intero blocco residenziale” e ucciso almeno 10 bambini.

“C’era una politica completamente permissiva riguardo alle vittime delle operazioni [di bombardamento] – così permissiva che secondo me aveva un elemento di vendetta”, ha affermato D., una fonte dell’intelligence. “Il nocciolo di tutto ciò sono stati gli omicidi di alti comandanti [di Hamas e PIJ] per i quali erano disposti a uccidere centinaia di civili. Facevamo un calcolo: quanti per un comandante di brigata, quanti per un comandante di battaglione e così via”.

“C’erano dei regolamenti, ma erano semplicemente molto indulgenti”, ha detto E., un’altra fonte dell’intelligence. “Abbiamo ucciso persone con danni collaterali a doppia cifra, se non a tripla cifra. Queste sono cose che non erano mai accadute prima”.

Palestinesi fra le macerie di Rafah dopo un bombardamento IDF , 22 ottobre 2023 (Abed Rahim Khatib/Flash90)

Un tasso così elevato di “danni collaterali” è eccezionale non solo rispetto a quanto ritenuto accettabile in precedenza dall’esercito israeliano, ma anche rispetto alle guerre intraprese dagli Stati Uniti in Iraq, Siria e Afghanistan.

Il generale Peter Gersten, vice comandante per le operazioni e l’intelligence nell’operazione per combattere l’ISIS in Iraq e Siria, ha dichiarato a una rivista di difesa statunitense nel 2021 che un attacco con danni collaterali di 15 civili si è discostato dalla procedura; per realizzarlo dovette ottenere un permesso speciale dal capo del Comando Centrale degli Stati Uniti, il generale Lloyd Austin, che ora è Segretario della Difesa.

“Con Osama Bin Laden, avresti un NCV [Non-combatant Casualty Value] di 30, ma se avessi un comandante di basso livello, il suo NCV sarebbe tipicamente pari a zero”, ha detto Gersten. “Abbiamo eseguito zero per il tempo più lungo.”

Ci è stato detto: “Tutto quello che puoi, bombarda”

Tutte le fonti intervistate per questa indagine hanno affermato che i massacri di Hamas del 7 ottobre e il rapimento di ostaggi hanno fortemente influenzato le regole d’ingaggio dell’esercito e i gradi dei danni collaterali. “All’inizio l’atmosfera era dolorosa e vendicativa”, ha detto B., che è stato arruolato nell’esercito subito dopo il 7 ottobre e ha prestato servizio in una sala operativa bersaglio. “Le regole erano molto indulgenti. Hanno abbattuto quattro edifici quando sapevano che l’obiettivo era in uno di essi. È stato pazzesco.”

“C’era una dissonanza: da un lato la gente qui era frustrata perché non attaccavamo abbastanza”, ha continuato B.. “D’altra parte, alla fine della giornata si vede che sono morti altri mille abitanti di Gaza, la maggior parte dei quali civili”.

“C’era isteria tra i soldati professionisti”, ha detto D., anche lui arruolato subito dopo il 7 ottobre. “Non avevano assolutamente idea di come reagire. L’unica cosa che sapevano fare era iniziare a bombardare come dei pazzi per cercare di smantellare le capacità di Hamas”.

Il ministro della difesa israeliano Gallant istruisce i soldati israeliani nei pressi del muro di Gaza. 19 ottobre 2023

D. ha sottolineato che non è stato detto loro esplicitamente che l’obiettivo dell’esercito era la “vendetta”, ma ha affermato che “non appena ogni obiettivo collegato a Hamas diventerà legittimo, e con l’approvazione di quasi tutti i danni collaterali, vi sarà chiaro che migliaia di persone verranno uccise. Anche se ufficialmente ogni obiettivo è collegato a Hamas, quando la politica è così permissiva perde ogni significato”.

A. ha usato la parola “vendetta” anche per descrivere l’atmosfera all’interno dell’esercito dopo il 7 ottobre. “Nessuno ha pensato a cosa fare dopo, quando la guerra sarà finita, né a come sarà possibile vivere a Gaza e cosa faranno fatelo”, ha detto A.. “Ci è stato detto: ora dobbiamo mandare all’aria Hamas, a qualunque costo. Qualunque cosa puoi, bombarda”.

B., la fonte principale dell’intelligence, ha affermato che, in retrospettiva, ritiene che questa politica “sproporzionata” di uccidere i palestinesi a Gaza metta in pericolo anche gli israeliani, e che questo è stato uno dei motivi per cui ha deciso di essere intervistato.

“Nel breve termine siamo più sicuri perché fermiamo Hamas. Ma penso che nel lungo termine saremo meno sicuri. Vedo come tutte le famiglie in lutto a Gaza – ovvero quasi tutte – aumenteranno la motivazione affinché [le persone si uniscano] ad Hamas tra dieci anni. E sarà molto più facile per [Hamas] reclutarli”.

In una dichiarazione rilasciata a +972 e Local Call, l’esercito israeliano ha negato gran parte di ciò che ci hanno detto le fonti, sostenendo che “ogni obiettivo viene esaminato individualmente, mentre viene effettuata una valutazione individuale del vantaggio militare e dei danni collaterali attesi dall’attacco… L’IDF non effettua attacchi quando il danno collaterale atteso dall’attacco è eccessivo rispetto al vantaggio militare”.

FASE 5: CALCOLO DEL DANNO COLLATERALE
“Il modello non era collegato alla realtà”

Secondo fonti di intelligence, il calcolo da parte dell’esercito israeliano del numero di civili che si prevede verranno uccisi in ciascuna casa accanto a un obiettivo – una procedura esaminata in una precedente indagine da +972 e Local Call – è stato effettuato con l’ausilio di strumenti automatici e imprecisi. Nelle guerre precedenti, il personale dell’intelligence dedicava molto tempo a verificare quante persone si trovassero in una casa destinata a essere bombardata, con il numero di civili che rischiavano di essere uccisi elencati come parte di un “target file”. Dopo il 7 ottobre, tuttavia, questa verifica approfondita è stata in gran parte abbandonata a favore dell’automazione.

Nel mese di ottobre, il New York Times ha riferito di un sistema gestito da una base speciale nel sud di Israele, che raccoglie informazioni dai telefoni cellulari nella Striscia di Gaza e fornisce ai militari una stima in tempo reale del numero di palestinesi fuggiti dal nord della Striscia di Gaza verso sud. Il generale di Brigata Udi Ben Muha ha dichiarato al Times che “non è un sistema perfetto al 100%, ma ti dà le informazioni di cui hai bisogno per prendere una decisione”. Il sistema funziona in base ai colori: il rosso segnala le aree dove ci sono molte persone, mentre il verde e il giallo segnalano le aree che sono state relativamente sgombrate dai residenti.

10 novembre 2023. Migliaia di Gazawi si rifugiano a Sud della Striscia per fuggire dai massacri israeliani (Atia Mohammed/Flash90)

Le fonti che hanno parlato con +972 e Local Call hanno descritto un sistema simile per il calcolo dei danni collaterali, utilizzato per decidere se bombardare un edificio a Gaza. Hanno detto che il software calcolava il numero di civili che risiedevano in ciascuna casa prima della guerra – valutando le dimensioni dell’edificio e rivedendo l’elenco dei residenti – e poi riduceva quei numeri in base alla percentuale di residenti che presumibilmente avevano evacuato il quartiere.

Ad esempio, se l’esercito stimasse che la metà dei residenti di un quartiere se n’era andata, il programma conterebbe una casa che di solito conta 10 residenti come una casa che ne contiene cinque. Per risparmiare tempo, dicono le fonti, l’esercito non ha sorvegliato le case per verificare quante persone effettivamente vivessero lì, come aveva fatto nelle operazioni precedenti, per verificare se la stima del programma fosse effettivamente accurata.

“Questo modello non era collegato alla realtà”, ha affermato una fonte. “Non c’era alcun collegamento tra coloro che erano in casa adesso, durante la guerra, e coloro che erano elencati come residenti lì prima della guerra. [In un’occasione] abbiamo bombardato una casa senza sapere che all’interno c’erano diverse famiglie, nascoste insieme”.

Secondo la fonte, anche se l’esercito sapeva che tali errori potevano verificarsi, è stato comunque adottato questo modello impreciso perché più veloce. Pertanto, ha affermato la fonte, “il calcolo dei danni collaterali è stato completamente automatico e statistico” – producendo anche cifre che non erano numeri interi.

PASSO 6: BOMBARDARE UNA CASA FAMIGLIA
“Hai ucciso una famiglia senza motivo”

Le fonti che hanno parlato con +972 e Local Call hanno spiegato che a volte c’era un divario sostanziale tra il momento in cui sistemi di tracciamento come Where is daddy? hanno allertato un ufficiale che un obiettivo era entrato nella loro casa e l’attentato stesso ha portato all’uccisione di intere famiglie anche senza colpire l’obiettivo dell’esercito. “Mi è capitato molte volte di attaccare una casa, ma la persona non era nemmeno in casa”, ha detto una fonte. “Il risultato è che hai ucciso una famiglia senza motivo.”

Tre fonti dell’intelligence hanno riferito a +972 e Local Call di aver assistito a un incidente in cui l’esercito israeliano ha bombardato la casa privata di una famiglia, e in seguito si è scoperto che l’obiettivo presunto dell’assassinio non era nemmeno all’interno della casa, poiché non erano state effettuate ulteriori verifiche condotte in tempo reale.

6 novembre 2023. Familiari ricevono i corpi dei propri figli all’ospedale al-najiae di Gaza (Abed Rahim Khatib/Flash90)

“A volte [l’obiettivo] era a casa prima, e poi di notte andava a dormire da qualche altra parte, diciamo sottoterra, e tu non lo sapevi”, ha detto una delle fonti. “Ci sono momenti in cui ricontrolli la posizione, e ci sono momenti in cui dici semplicemente: ‘Okay, era in casa nelle ultime ore, quindi puoi semplicemente bombardare.’”

Un’altra fonte ha descritto un incidente simile che lo ha colpito e gli ha fatto desiderare di essere intervistato per questa indagine. “Abbiamo capito che l’obiettivo era a casa alle 20:00. Alla fine, l’aviazione ha bombardato la casa alle 3 del mattino. Poi abbiamo scoperto che [in quell’arco di tempo] era riuscito a trasferirsi in un’altra casa con la sua famiglia. C’erano altre due famiglie con bambini nell’edificio che abbiamo bombardato”.

Nelle precedenti guerre a Gaza, dopo l’assassinio di obiettivi umani, l’intelligence israeliana eseguiva procedure di valutazione dei danni da bomba (BDA), un controllo di routine post-bombardamento per vedere se il comandante anziano era stato ucciso e quanti civili erano stati uccisi insieme a lui. Come rivelato in una precedente indagine di +972 e Local Call, ciò comportava l’ascolto di telefonate di parenti che avevano perso i loro cari. Nella guerra attuale, tuttavia, almeno per quanto riguarda i giovani militanti marchiati con l’intelligenza artificiale, le fonti affermano che questa procedura è stata abolita per risparmiare tempo. Le fonti hanno detto di non sapere quanti civili siano stati effettivamente uccisi in ogni attacco, e per i sospetti militanti di basso rango di Hamas e PIJ contrassegnati dall’AI, non sapevano nemmeno se l’obiettivo stesso fosse stato ucciso.

“Non sai esattamente quanti ne hai uccisi e chi hai ucciso”, ha detto una fonte dell’intelligence a Local Call per una precedente indagine pubblicata a gennaio. “Solo quando si tratta di agenti senior di Hamas si segue la procedura BDA. Nel resto dei casi, non ti interessa. Ricevi un rapporto dall’aeronautica militare che informa se l’edificio è stato fatto saltare in aria, e basta. Non hai idea di quanti danni collaterali ci siano stati; passi immediatamente al bersaglio successivo. L’enfasi era quella di creare quanti più obiettivi possibili, il più rapidamente possibile”.

Ma mentre l’esercito israeliano può passare dopo ogni attacco senza soffermarsi sul numero delle vittime, Amjad Al-Sheikh, il residente di Shuja’iya che ha perso 11 membri della sua famiglia nel bombardamento del 2 dicembre, ha detto che lui e i suoi vicini sono ancora alla ricerca di cadaveri.

“Finora ci sono corpi sotto le macerie”, ha detto. “Quattordici edifici residenziali sono stati bombardati con i loro residenti all’interno. Alcuni dei miei parenti e vicini sono ancora sepolti”.

L'articolo [PALESTINA] Lavender e “Where is daddy?”: l’intelligenza artificiale che dirige i bombardamenti di Israele a Gaza proviene da "TOCCANO UNO TOCCANO TUTTI".

Read Entire Article