Israele ha usato l’IA per individuare 37.000 obiettivi a Gaza

Roma, 3 apr. (askanews) – Nella guerra in atto nella Striscia di Gaza l’esercito israeliano ha fatto ricorso a un programma basato sull’intelligenza artificiale denominato “Lavender”, che nelle prime settimane di conflitto ha individuato fino a 37.000 palestinesi come sospetti militanti per possibili attacchi aerei. E’ quanto hanno riferito sei fonti di intelligence, tutte coinvolte nell’utilizzo di sistemi di intelligenza artificiale per identificare gli obiettivi di Hamas e Jihad islamica palestinese nel corso del conflitto, alla testata israelo-palestinese +972 Magazine e al sito in lingua ebraica Local Call.

Dall’inchiesta è emerso che durante le prime fasi della guerra, l’esercito ha approvato il ricorso alle liste di obiettivi di Lavender senza richiedere verifiche più approfondite sui motivi della designazione o analisi dei dati grezzi di intelligence su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro” per le decisioni della macchina, aggiungendo che, normalmente, avrebbe dedicato personalmente solo circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento, per assicurarsi che l’obiettivo fosse maschio.

Inoltre, l’esercito israeliano ha attaccato sistematicamente le persone prese di mira mentre si trovavano nelle loro case, solitamente di notte, quando erano presenti tutte le loro famiglie, piuttosto che nel corso di un’attività militare. Questo ha portato alla morte di migliaia di palestinesi, la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti. “Non eravamo interessati a uccidere gli agenti [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare – ha detto un ufficiale dell’intelligence a +972 e Local Call – al contrario, le Forze di difesa israeliane li hanno bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni”.

Lo scorso novembre le stesse testate avevano riferito dell’uso di un altro sistema di intelligenza artificiale usato dall’esercito israeliano, denominato “The Gospel”. Una differenza essenziale tra i due sistemi risiede nella definizione dell’obiettivo: se The Gospel contrassegna gli edifici e le strutture da cui secondo l’esercito operano i militanti, Lavender contrassegna le persone e le inserisce in una lista di uccisioni.

Inoltre, secondo le fonti, quando si è trattato di prendere di mira i presunti giovani militanti contrassegnati da Lavender, l’esercito ha preferito utilizzare solo missili non guidati, comunemente noti come bombe “stupide”, che possono distruggere interi edifici e causare grosse perdite.

“Non vuoi sprecare bombe costose per persone non importanti, è molto costoso per il Paese e c’è carenza (di quelle bombe)”, ha detto un altro funzionario dell’intelligence. Un’altra fonte ha affermato di aver autorizzato personalmente il bombardamento di “centinaia” di case private di presunti giovani agenti contrassegnati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come “danno collaterale”.

A questo proposito, due fonti hanno dichiarato che nelle prime settimane di guerra l’esercito aveva stabilito che per ogni giovane agente di Hamas segnalato da Lavender era consentito uccidere fino a 15 o 20 civili. In passato, ricordano le due testate, i militari non autorizzavano alcun “danno collaterale” durante gli omicidi di militanti di basso rango. Secondo le stesse fonti, in caso di un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito in diverse occasioni ha autorizzato l’uccisione di più di 100 civili per un solo comandante.