“The Human-Machine Team”, ovvero l’orrore automatizzato (e normalizzato) di Gaza
Nel massacro in corso a Gaza – che l’articolista in vena di macabro umorismo chiama «uno dei conflitti più cruenti degli ultimi anni» – l’Intelligenza Artificiale gioca un ruolo di primo piano, al punto che persino dei sinceri democratici lo hanno definito il primo genocidio automatizzato della storia. Una “notizia” non proprio degli ultimi giorni, ma che è arrivata finalmente anche alla redazione de “La Stampa”. Per parlarne, la Busiarda ha aspettato, come sempre, che ne parlasse qualche “autorevole” quotidiano statunitense (nello specifico il “Washington Post”), assemblando mezze verità (il numero dei “civili palestinesi sacrificabili” per ogni “membro di Hamas” da colpire è ben maggiore del rapporto di 20 a 1) e totali menzogne (ad esempio che il ricorso all’IA abbia lo scopo di «ridurre la durata del conflitto e limitare il numero di vittime sul campo»). Di fronte al fatto che l’umanità prigioniera e sorvegliata di Gaza diventi immediatamente assassinabile da un reparto dell’intelligence israeliana chiamato «Unità 8200» e composto «per il 60% da ingegneri ed esperti tech», al nostro valoroso cronista non rimane altro che lamentare la scarsa precisione dei sistemi automatizzati e concludere: «la supervisione umana rimane fondamentale per contenere errori e salvaguardare vite». Evidentemente, lo Human-Machine Team che dà il titolo al libro scritto dal generale Yossi Sariel, capo dell’Unità 8200, comprende anche le redazioni di scribacchini che non trovano una sola parola di condanna morale davanti a un tale orrore macchinizzato.
In questo momento l’arma più pericolosa dell’esercito israeliano è l’IA
Un’inchiesta del Washington Post racconta come l’IDF abbia creato negli ultimi dieci anni una “fabbrica dell’intelligenza artificiale” che scova i militanti di Hamas, suggerisce dove bombardare e calcola il numero di civili “sacrificabili”. Ma lo scenario ricostruito dal Post non è quello di un’infallibile guerra chirurgica. L’IA può commettere errori e ciò che sta avvenendo a Gaza potrebbe interessare, in futuro, altri conflitti nel mondo
L’intelligenza artificiale è spesso al centro di dibattiti sul futuro del lavoro, con molti esperti che temono possa progressivamente sostituire gli esseri umani.
Ma esiste un altro scenario ancora più inquietante: l’utilizzo degli algoritmi nelle decisioni militari.
Un’inchiesta del Washington Post ha messo in luce come l’IA stia prendendo il posto degli analisti umani nella gestione e nell’individuazione degli obiettivi bellici a Gaza, in uno dei conflitti più cruenti degli ultimi anni.
La progressiva sostituzione delle operazioni di intelligence con sistemi automatici sta rivoluzionando il modo in cui si combatte una guerra.
I dati raccolti da satelliti, droni e sistemi di sorveglianza vengono filtrati da algoritmi che propongono possibili bersagli. Gli ufficiali dell’IDF considerano questi strumenti fondamentali per velocizzare le decisioni e conservare un vantaggio strategico.
Gospel, “the pool” e i sistemi IA usati a Gaza
Il sistema “Habsora” (in ebraico “the Gospel”) sfrutta centinaia di algoritmi per individuare potenziali obiettivi tra i dati accumulati in un enorme bacino digitale chiamato “the pool”.
Gli algoritmi setacciano intercettazioni, foto satellitari e post sui social network per segnalare coordinate di presunte strutture sotterranee, tunnel o depositi di armi.
“Usando il riconoscimento delle immagini del software, i soldati possono scovare minuscoli cambiamenti in anni di riprese satellitari di Gaza che suggeriscono come Hamas abbia piazzato un lanciarazzi o scavato un nuovo tunnel su terreni agricoli” scrive il Washington Post sulla base delle rivelazioni di un ex capo militare che ha lavorato a questi sistemi di intelligenza artificiale.
Altri programmi, come “Lavender”, utilizzano punteggi in percentuale per stimare la probabilità che una persona appartenga a gruppi armati. Elementi come la presenza in determinate chat o l’uso frequente di più linee telefoniche possono alzare il livello di sospetto.
Applicazioni come “Hunter” e “Flow”, invece, consentono ai soldati israeliani sul campo di battaglia di accedere a dati in tempo reale, inclusi video in tempo reale delle zone a cui si avvicinano e stime su possibili vittime civili.
Questi sistemi si interfacciano con “Gospel”, potenziando l’intero processo di acquisizione degli obiettivi.
Le “fonti” dell’IA
Gli algoritmi attingono a intercettazioni telefoniche, droni, database di reti sociali e sensori sismici. Tutte queste informazioni confluiscono appunto in “the pool”, un archivio centralizzato creato per conservare possibili indizi sulla presenza di strutture e militanti di Hamas.
La procedura di validazione dei dati
Gli algoritmi producono coordinate e suggerimenti di obiettivi da colpire.
Un analista umano verifica le segnalazioni, inoltrandole a un ufficiale di grado superiore che le inserisce nel cosiddetto “target bank”, la banca data degli obiettivi.
I vantaggi dell’IA in guerra
Le ricerche e le analisi che prima richiedevano una settimana vengono ora completate in soli 30 minuti.
L’IDF per esempio utilizza l’IA per trascrivere migliaia di conversazioni ogni giorno e rintracciare rapidamente possibili minacce nelle parole che si scambiano i palestinesi.
Alcuni ufficiali ritengono che la velocità di analisi dell’IA possa ridurre la durata del conflitto e limitare il numero di vittime sul campo.
Secondo i vertici militari israeliani, questa tecnologia permette di aggiornare i piani d’attacco in tempo reale, offrendo maggiore precisione e un notevole risparmio di risorse umane e logistiche.
Gli errori che può commettere l’IA
Tuttavia alcuni soldati ed ex ufficiali dell’IDF – che hanno parlato in forma anonima con il Washington Post – hanno dubbi sulla capacità dell’IA di interpretare correttamente il linguaggio locale.
In uno dei casi raccontati al giornale di proprietà di Jeff Bezos, il fondatore di Amazon, gli algoritmi non sono riusciti a distinguere tra la parola “batikh” (in arabo “anguria”) usata come codice per le bombe e quella riferita al frutto reale.
Le IA, tarate sulla ricerca di possibili segnali d’allarme, rischiano così di generare un eccesso di falsi positivi e di spingere i militari a valutare come sospette anche le conversazioni più innocue.
Un altro esempio preoccupante di errore che può commettere una IA è la stima del numero di civili presenti in un edificio, a cui solitamente l’IDF arriverebbe basandosi anche sul conteggio dei telefoni connessi a una cella, ignorando per esempio bambini o dispositivi spenti o scarichi nel momento in cui vengono conteggiati gli smartphone.
Non è sempre chiaro, inoltre, se un’informazione su possibili obiettivi proviene da una macchina o da un analista umano: tutto questo rende più rischiosa la valutazione da parte di chi, alla fine, deve decidere o meno se sferrare un attacco.
Un ex alto ufficiale dell’IDF ha detto al Washington Post che la troppa fiducia nei sistemi automatizzati ha alimentato nell’esercito l’idea di un’avanzata sorveglianza “onnisciente”.
Affidandosi alle dichiarazioni di due ex militari israeliani, il Washington Post ha scritto che “l’entusiasmo per l’intelligenza artificiale ha eroso la “cultura dell’avvertimento” dell’Unità 8200, secondo cui anche gli analisti di basso livello potevano facilmente informare i comandanti superiori sulle minacce in corso”.
Secondo queste fonti, l’IA può contribuire ad agire più in fretta, ma non a ridurre gli errori in un contesto bellico complesso come quello di Gaza.
Il ruolo dell’Unità 8200
L’adozione di tecnologie di IA è stata accelerata dalla Unit 8200, il reparto d’élite dell’intelligence israeliana.
A guidare l’integrazione dell’IA nelle operazioni militari è stato il generale Yossi Sariel, convinto sostenitore della necessità di automatizzare le strategie decisionali in battaglia.
Sariel è l’autore di un libro dal titolo The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” in cui sostiene “la necessità di progettare una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” per attacchi militari in piena guerra”.
Sariel ha promosso un radicale potenziamento dell’ingegneria dei dati, riducendo gli specialisti di lingua araba e ridisegnando la struttura dell’Unità 8200, che oggi è composta per il 60% da ingegneri ed esperti tech, il doppio degli informatici arruolati dieci anni fa.
I civili “sacrificabili”
Secondo le testimonianze di ex soldati e analisti raccolte dal Washington Post, la fiducia nell’IA ha portato l’IDF a ridurre alcuni passaggi di validazione e controllo, col risultato di aumentare il numero di obiettivi ritenuti legittimi. Anche se questi comportano un maggior rischio di vittime tra i civili.
Dalla proporzione di 1:1 del 2014 (un civile “sacrificabile” per colpire un membro di Hamas di alto livello) si è passati a 15:1 o persino 20:1 nel conflitto attuale, stando alle fonti del Washington Post e a quanto hanno dichiarato organizzazioni umanitarie.
Molti analisti sostengono che, sebbene queste tecnologie siano destinate a diffondersi tra i paesi in guerra, la supervisione umana rimane fondamentale per contenere errori e salvaguardare vite.
(Pier Luigi Pisa su “La Stampa” on line del 30 dicembre 2024)