L’intelligenza artificiale per sterminare Gaza
L’esercito israeliano usa l’AI per individuare gli obiettivi e colpire, ma ora ha anche sviluppato un suo large language model per prendere decisioni
Dato che l’intelligenza artificiale soffre di allucinazioni e può avere ampi margini di errore, il suo utilizzo per valutare se una certa persona può essere considerata o meno un criminale o per calcolare la possibilità che si stia preparando un attacco terroristico, reagendo di conseguenza, è ovviamente molto pericoloso
Laura Turini
Nella vergogna senza nome, di quello che sta accadendo a Gaza, si insinua un’altra vergogna, l’uso massivo di strumenti sviluppati con sistemi di intelligenza artificiale che uccidono in modo subdolo peggio del gas nervino dei campi di concentramento.
Che l’intelligenza artificiale sia ampiamente utilizzata in ambito bellico e governi le sorti di molti conflitti è noto, ma sembra argomento inesistente stando alle cronache dei giornali.
Recentemente la coraggiosa rivista israeliana +972, al cui interno lavorano giornalisti israeliani e palestinesi che riportano le vicende di Gaza, ha pubblicato il risultato di un’inchiesta condotta insieme a Local Call e The Guardian sullo sviluppo di un nuovo modello di intelligenza artificiale da parte dell’esercito israeliano, un LLM, Large Language Model finalizzato ad agevolare le operazioni di polizia nella striscia.
Si tratta di un vero foundation model, nuovo di zecca, una sorta di gemello del GTP utilizzato all’interno di ChatGPT, che svolge tutte le funzioni di un modello di intelligenza artificiale in grado di rispondere alle domande, fare analisi, tradurre, generare documenti, impostare previsioni.
La caratteristica di questo modello israeliano sta nel fatto che è stato addestrato sulla base delle conversazioni acquisite tramite intercettazioni da parte dei servizi di sorveglianza sul territorio di Gaza e quindi su chat private, in palese violazione del diritto alla riservatezza di cui si sono lamentate in più occasioni le associazioni umanitarie, anche se apparentemente potrebbe sembrare l’ultimo dei problemi.
Il progetto era già stato avviato prima del 7 Ottobre, con il fine di creare un sistema che consentisse di potere meglio comprendere le conversazioni in lingua palestinese, in quanto il parlato locale non ha un vero e proprio traduttore e spesso sfuggono espressioni legate allo slang.
Dopo l’attentato di Hamas il progetto ha avuto però un’accelerata grazie soprattutto all’intervento dei riservisti, reclutati anche tra gli esperti di intelligenza artificiale che lavoravano per imprese importanti, probabilmente non escluse società come Google e Microsoft.
Avere un LLM proprietario che comprende e ragiona nella lingua araba parlata dai palestinesi offre enormi vantaggi, legati ad una maggiore capacità di interpretare i dati, di recuperare informazioni ma anche di ottenere risposte e fare previsioni.
L’obiettivo più ambizioso potrebbe essere quello di sostituire molti ufficiali con agenti di intelligenza artificiale opportunamente addestrati.
Dato che l’intelligenza artificiale soffre di allucinazioni e può avere ampi margini di errore, il suo utilizzo per valutare se una certa persona può essere considerata o meno un criminale piuttosto che per calcolare la possibilità che si stia preparando un attacco terroristico, reagendo di conseguenza, è ovviamente molto pericoloso.
Non si hanno notizie sul fatto che l’esercito israeliano lo stia effettivamente utilizzando e a quali fini, ma c’è chi sostiene che siano proprio i modelli AI collegati ad una sorveglianza di massima ad avere fatto aumentare considerevolmente il numero degli arrestati.
Quello che è certo è che l’intelligenza artificiale è una tecnologia molto utilizzata dall’IDF, la forza di difesa israeliana, nella sua strategia militare contro Gaza.
Sempre +972 Magazine circa un anno fa, ha pubblicato il risultato di un’inchiesta, condotta insieme a Local Call, su Lavander, il programma di intelligenza artificiale utilizzato dall’esercito israeliano per individuare e geolocalizzare le persone da uccidere, affiancato da The Gospel, altro programma basato sull’AI, in grado di individuare gli edifici da abbattere, entrambi dotati di ampia autonomia decisionale.
Le fonti di informazione avrebbero riferito questo
“Nelle prime settimane della guerra, l’esercito ha fatto affidamento quasi esclusivamente su Lavender, che ha classificato fino a 37.000 palestinesi come sospetti militanti e ha individuato le loro abitazioni come possibili obiettivi di raid aerei.
Durante questa fase iniziale, gli ufficiali hanno ricevuto un’autorizzazione generale ad adottare le liste di uccisione prodotte da Lavender, senza necessità di verificare perché la macchina avesse selezionato quegli individui o di esaminare i dati di intelligence grezzi su cui si basava”.
La gravità di questa affermazione è evidente, considerando anche che tutto questo accadeva nella consapevolezza che il sistema poteva avere un margine di errore del 10 per cento, ritenuto accettabile anche se detto errore si traduceva nella perdita della vita per centinaia di persone innocenti.
L’uso dell’intelligenza artificiale in ambito militare è uno dei problemi più seri connessi all’AI, eppure è un tema che non finisce mai sulle prime pagine dei giornali salvo rarissime eccezioni e ancora meno sulle scrivanie dei legislatori.
Sterminio automatizzato
Le leggi e i regolamenti varati a livello europeo o nazionale non si preoccupano di mettere al bando, con una presa d’atto forte e decisa, l’impiego dell’AI al fine di uccidere esseri umani.
Per trovare una tale presa d’atto dobbiamo appellarci a Isaac Asimov che in una delle sue leggi della robotica ha stabilito il sacrosanto principio per cui un robot non deve fare del male a un essere umano e non deve consentire che ciò accada restando inerte.
Se si lascia all’intelligenza artificiale il potere di decidere, in un arco di tempo ridottissimo, se agire, contro chi agire, lasciandole anche l’automatismo di porre in essere la decisione che ha assunto, senza un intervento umano o con un intervento che si limita ad una mera approvazione, i rischi a cui l’umanità si espone sono enormi. Basti ricordare Stanislav Petrov Evgrafovich.
Per Gaza il mondo sembra impazzito e disposto ad accettare che accada l’inaccettabile, che vengano lasciati morire di fame bambini, che si bombardino gli ospedali, che si uccidano medici, giornalisti, soccorritori, per cui quasi non c’è da stupirsi che nessuno si preoccupi di come questo avviene e che non ci sia differenza tra un pulsante schiacciato da un uomo ed uno avviato da una macchina.
La differenza invece c’è ed è enorme, in termini di rapidità di intervento, quantità di persone colpite, errore di valutazione, mancanza di limiti imposti dall’intuito umano e dal buon cuore che qualche soldato continuerà pur sempre a sentire battere nel suo petto. Massima precisione, massima efficacia, minimi rischi di ripensamenti o crisi di coscienza, niente disertori.
Non si può accettare che uccidere un uomo sia equiparato alla soluzione di un problema tecnico che un algoritmo è in grado di risolvere, eppure, dall’articolo di +972 sembra proprio così.
È impressionante, al di là dei numeri e delle modalità operative delle azioni militari, vedere che nelle slide, colorate e allegre, preparate da IDF per illustrare il funzionamento di Lavander, compaiono disegni stilizzati di volti umani sorridenti che sono gli obiettivi che il sistema si propone di raggiungere e di uccidere, come se fossero birilli di un gioco a premi in cui vince chi ne colpisce di più nel minore tempo possibile.
Un gioco che una volta avviato fa tutto da solo, non occorre premere pulsanti o muovere joystick, non c’è alcun monitor su cui osservare la scena.
Delegando alla macchina il potere di uccidere si è superata la fantascienza.
Pre-ordina il nuovo libro
Il nemico. Elon Musk e l'assalto al tecnocapitalismo e alla democrazia Copertina rigida – Esce il 10 giugno 2025 ma si può già ordinare qui
Qui la presentazione:
MUSK TALKS - in diretta su Substack
Mercoledì 21 maggio ore 17 - Musk e il nuovo potere digitale - Con Laura Turini e Stefano Feltri
Martedì 27 maggio, ore 17 - Musk e l’ideologia del tecno-capitalismo - Con Gloria Origgi e Stefano Feltri
Mercoledì 4 giugno, ore 17 - La crisi della democrazia nel tempo di Musk - Con Mattia Diletti e Stefano Feltri
Martedì 17 giugno, ore 17 - Musk e l’ascesa della tecnodestra - con Vincenzo Sofo (autore di Tecnodestra per Paesi edizioni)
Martedì 24 giugno, ore 17 - Musk, i satelliti e la geopolitica dello spazio - con Frediano Finucci (autore di Operazione Satellite per Paesi edizioni)
Dal vivo:
Sabato 31 maggio, ore 15, al Festival dell’Economia di Torino, al Circolo dei lettori: Contro Elon Musk - con Marc Lazar e Stefano Feltri, coordina Eva Giovannini
Giovedì 19 giugno, ore 18: A Roma, alla Libreria Testaccio, piazza Santa Maria Liberatrice 23, con Carlo Tecce
Per info su presentazioni, interviste, speech: appunti@substack.com (non sono in grado di organizzare altre cose fuori Roma, quindi non offendetevi se declino inviti a festival o presentazioni che richiedono trasferte)
Da leggere su Appunti
Le ambiguità del Brexit Reset
Lungi dall’essere un attore libero e agile in grado di concludere accordi opportunistici, come avevano predetto dai sostenitori della Brexit – un miraggio facilmente smontato nei mesi successivi l’us…
Grazie a tutti per avere prestato attenzione al tema, spero che aumentino i giornalisti che ne parlano
A Gaza si sta consumando sotto i nostri occhi uno sterminio di cui saremo chiamati a rendere conto per la complicità omicida che i nostri governi stanno garantendo senza che riusciamo a far sentire la voce di milioni di persone che scendono in piazza da anni. A Gaza si sta consumando il disfacimento dell’Occidente tanto decantato in questo spazio.