Vai al contenuto

Le vittime collaterali delle “bombe intelligenti”: come funziona davvero la tecnologia in guerra

Pubblicato: 08/04/2024 16:07

Le vittime collaterali dei bombardamenti? Un dettaglio di poca importanza quando a gestire le azioni di guerra prevalgono decisioni affidate all’intelligenza artificiale. Quella che a molti potrebbe sembrare oggi una minaccia, derivante dall’avanzare della tecnologia nel percorso umano, risulta emergere come una (drammatica?) realtà nel conflitto in corso in Medioriente. O meglio ancora, come un inquietante lato oscuro.
Leggi anche: Morbillo, emergenza in Italia: “Il peggio deve ancora venire”. Come prepararsi

Da un report fornito della rivista indipendente israelo-palestinese +972, e in base a quanto avrebbero raccontato agenti dei servizi segreti di Tel Aviv, l’esercito con la stella di David ha utilizzato il database Lavender (traduzione: lavanda) per incrociare le informazioni relative a persone potenzialmente vicine ai miliziani palestinesi. Vicine insomma quanto bastava per decidere quali obiettivi bombardare a Gaza, con inevitabili conseguenze anche sui civili. La notizia, mai smentita, è stata riportata in Italia da Kevin Carboni su Wired.it (Wired.it – Lavender intelligenza artificiale), calcolando che “Israele ha contrassegnato più di 37mila palestinesi come obiettivi militari”. Con le conseguenze – numeriche, ma stiamo parlando di persone: è bene ricordarlo – che ne sono derivate.

Secondo il report citato, il processo di “autorizzazione a colpire i target segnalati dall’AI stabilisce che sia accettabile un numero tra 15 e 20 vittime collaterali per ogni miliziano di Hamas o della Jihad islamica palestinese ucciso. E fino a 100 vittime civili collaterali per ogni alto funzionario colpito”. Il lavoro di +972, condotto con il giornale di lingua ebraica Local Call e riportato dal Guardian, è basato sulle testimonianze di sei membri dei servizi segreti israeliani che hanno sviluppato e usato Lavender. Secondo questi gli operatori impiegano 20 secondi per approvare l’obiettivo indicato dal sistema di IA. In particolare, Lavender sarebbe stato usato per identificare target considerati di “basso rango”.

Il database utilizzato dagli israeliani farebbe il paio con Gospel, altra piattaforma di IA utile a individuare obiettivi da colpire. Che “non sono concentrati su obiettivi mirati scelti dai militari, ma vengono decisi da Gospel (Vangelo) e poi selezionati dai soldati”. In una dichiarazione rilasciata nei primi giorni dell’offensiva israeliana, il capo delle forze aeree di Tel Aviv aveva definito gli attacchi come “incessanti” e “non chirurgici”. Inoltre l’uso di Gospel “è stato confermato in una dichiarazione rilasciata sul sito delle forze armate israeliane, nonostante il progetto sia rimasto a lungo segreto e i dettagli sul suo funzionamento siano scarsi”, ricorda Wired.

Il sistema Gospel sarebbe basato su un enorme database creato negli ultimi anni dalle divisioni di intelligence israeliane, tramite la raccolta senza consenso dei dati personali e biometrici dei palestinesi. In estrema sintesi, Vangelo analizza questi dati e li traduce in obiettivi da attaccare. Il problema è che non si sa quali altri dati vengano forniti al sistema per fargli scegliere cosa sia da considerare un obiettivo attaccabile, ma le testimonianze raccolte da +972 indicano che l’uso dell’IA abbia raddoppiato l’individuazione dei bersagli, da 50 a 100 al giorno, quindi in maniera non precisissima. E non si conoscono dettagli sui punteggi, né su quale sia il numero di vittime civili accettabile per Israele per ordinare l’attacco aereo.
Il governo ha assicurato che chi impiega Gospel fa tutto quello che è possibile per evitare “danni ai civili non coinvolti”. A giudicare dal numero di vittime civili, viene alimentato il dubbio che questi sistemi possano ridurre i danni collaterali. Lo stesso Guardian ha riportato che ci sarebbero “poche prove empiriche” a supportare quelle affermazioni, tanto che Gospel è stato definito come “una fabbrica di assassinii di massa che punta sulla quantità e non sulla qualità”.
Tornando invece al database Lavender, sempre il Guardian ha riportato che prima dell’attacco di Hamas a Israele del 7 ottobre l’identificazione degli obiettivi “richiedeva l’approvazione di un consulente legale per poter ordinare l’attacco. Dopo, a detta delle fonti, l’esercito israeliano ha allentato questo sistema, usando pre-autorizzazioni e chiedendo un flusso continuo di obiettivi”. Mentre testimonianze raccolte da +972 raccontato di aver subito una pressione costante: “Ci dicevano: ora dobbiamo distruggere Hamas, a qualunque costo. Bombardate tutto quello che potete”. Imperativo che avrebbe portato anche all’impiego delle cosiddette bombe mute da parte dell’esercito, ovvero munizioni non intelligenti e non guidate, che causano un alto numero di vittime innocenti perché puntano a distruggere gli edifici in cui potrebbero trovarsi gli obiettivi militari. “Non si vogliono sprecare bombe costose per persone non importanti”, avrebbe detto a +972 un ufficiale dell’intelligence israeliana.

Secondo i dati dell’Onu nel primo mese di guerra 1.340 famiglie palestinesi hanno subito perdite multiple; mentre 312 famiglie hanno perso più di 10 membri. Negli ultimi sei mesi sono state uccise più di 33mila persone, quasi quante quelle identificate da Lavender come obiettivi militari; di queste più di 12mila erano minori. Inoltre l’azione militare di Israele ha portato all’uccisione anche di 95 giornalisti, secondo i dati del Committee to protect journalist, e di circa 200 operatori umanitari secondo la Bbc.

Leggi anche: Omicidio Willy, a processo due testimoni: “Hanno mentito per favorire i Bianchi e Pincarelli”

Ultimo Aggiornamento: 08/04/2024 17:10