lunedì 4 Novembre 2024

Israele usa l’intelligenza artificiale per decidere quali palestinesi devono essere uccisi

L’esercito israeliano starebbe utilizzando un sistema d’intelligenza artificiale per designare i palestinesi da colpire a morte con droni e attacchi dal cielo. Durante l’assalto alla Striscia di Gaza, il suo uso sarebbe stato sistemico e automatizzato, definendo migliaia di persone come legittimi bersagli da colpire, e che poi sono stati effettivamente colpiti. È quanto emerge da un’inchiesta congiunta condotta dalle testate giornalistiche indipendenti israeliane +972 Magazine e Local Call, utilizzando fonti dell’intelligence israeliana. Secondo quanto riportato, il sistema di intelligenza artificiale adottato dall’esercito israeliano, di nome Lavender, è stato progettato per giudicare in 20 secondi se una persona identificata sia o meno da ritenere affiliata ai movimenti della resistenza armata palestinese e, in caso di giudizio positivo della macchina, senza nessuna ulteriore verifica, i soldati israeliani procedono all’uccisione.

La testata giornalistica indipendente, formata da giornalisti israeliani e palestinesi, +972 Magazine, insieme a Local Call, ha realizzato un’inchiesta sull’utilizzo dell’intelligenza artificiale nell’attuale guerra che Israele sta portando avanti a Gaza. L’indagine delle due testate si basa su conversazioni con sette membri dell’intelligence israeliana – attuali ed ex – tra cui personale coinvolto nell’ operazione israeliana attualmente in corso nella Striscia, oltre a dichiarazioni ufficiali del portavoce dell’IDF e di altre istituzioni statali israeliane così come testimonianze, dati e documentazione raccolte direttamente nella Striscia di Gaza. Ne emerge un quadro a dir poco raccapricciante: una calcolata uccisione di massa sulla base di elaborazioni prodotte dall’intelligenza artificiale.

“Lavender” è il sistema di intelligenza artificiale progettato per contrassegnare tutti coloro che sono ritenuti sospetti operativi nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno detto a +972 Magazine e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a “Lavender”, il quale ha generato una lista di 37.000 palestinesi sospettati di essere dei militanti, e quindi come bersagli da colpire. A tale scopo, un altro sistema di intelligenza artificiale, “Habsora” (“Il Vangelo”), contribuisce allo sterminio di massa. La ragione del gran numero di edifici, case comprese, designati come obiettivi, e l’estesa distruzione e morte tra i civili di Gaza, risiede nell’utilizzo di “Habsora”, il quale può “generare” obiettivi quasi automaticamente a una velocità che supera di gran lunga ciò che era possibile in precedenza. Questa combinazione di programmi di intelligenza artificiale è stata descritta da un ex ufficiale dell’intelligence come una «fabbrica di omicidi di massa».

«Soprattutto durante le prime fasi della guerra, l’esercito israeliano diede ampia approvazione per adottare le liste di uccisione di Lavender, senza alcun obbligo di controllare a fondo il motivo per cui la macchina aveva fatto quelle scelte o di esaminare i dati grezzi dell’intelligence su cui si basavano». Una fonte ha affermato che il personale umano spesso serviva solo come «timbro di gomma» per le decisioni della macchina, aggiungendo che, normalmente, «dedicavano personalmente solo circa 20 secondi a ciascun bersaglio prima di autorizzare un bombardamento».

Il software “Lavender” analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza, attraverso il sistema di sorveglianza di massa posto in essere da Israele, quindi valuta e classifica la probabilità che una singola persona sia attiva nella resistenza armata. Secondo le fonti, la macchina conferisce un punteggio da 1 a 100, esprimendo quanto sia probabile che l’individuo analizzato sia un militante. “Lavender” impara a identificare e classificare i sospetti sulla base delle informazioni note riguardo ai militanti di Hamas e di PIJ, inizialmente inserite dagli operatori come dati di addestramento, per poi iniziare a generare automaticamente i suoi calcoli verso la popolazione totale. Informazioni visive, informazioni cellulari, connessioni ai social media, informazioni sul campo, contatti telefonici, foto, email, contatti, interessi, tutto quanto viene scandagliato dall’intelligenza artificiale col fine di decidere se una persona ha un’alta probabilità di essere un militante della resistenza palestinese. Insomma, per quanto potente e veloce possa essere la macchina, dipende da cosa gli viene insegnato di cercare, immettendo in essa ogni valutazione o pregiudizio umano, ed esprimendo pur sempre una probabilità.

Secondo quattro delle fonti che hanno parlato con +972 Magazine e Local Call, come già riportato sopra, Lavender ha contrassegnato circa 37.000 palestinesi come sospetti “militanti di Hamas” e inseriti nella lista per l’assassinio. E con l’utilizzo dell’altro sistema di intelligenza artificiale, “Il Vangelo”, che designa automaticamente gli edifici che sono un obiettivo da colpire, l’esercito israeliano ha sistematicamente attaccato gli individui identificati da “Lavender” mentre si trovavano nelle loro case, uccidendone anche tutta la famiglia.

Il che è significativo per diverse ragioni che vanno oltre la semplice violazione del diritto internazionale, per cui questi individui non vengono uccisi sul campo di battaglia, mentre combattono, prova ineluttabile del fatto che siano effettivamente dei militanti della resistenza. Il problema è molto più vasto. Questi bersagli umani vengono condannati a morte per dei calcoli di una macchina che, per quanto sofisticata, potente e veloce, rimane pur sempre una macchina – aprendo, tra l’altro, il discorso sull’ulteriore deresponsabilizzazione delle azioni umane attraverso l’impiego massiccio e automatizzato dell’intelligenza artificiale – che impara da delle istruzioni umane di partenza, le quali, tra l’altro, possono essere totalmente sbagliate. In terzo luogo, per uccidere un individuo che una macchina ha detto essere, forse, appartenete alla resistenza, si decide di ucciderlo mentre si trova nella sua abitazione, insieme al resto della sua famiglia, donne e bambini compresi. Insomma, l’inchiesta condotta dalle due testate giornalistiche rivela una realtà distopica e disumana dello sterminio di massa che Israele sta perpetrando a Gaza ed è un monito per un futuro prossimo che già si è affacciato in maniera macabra sul presente.

[di Michele Manfrin]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

Articoli correlati

4 Commenti

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria