AI Act, licenza di uccidere
La nuova legge europea non regola gli usi militari, lascia il compito al diritto internazionale. Ma questo è un approccio pericoloso in un'epoca di guerre
Siamo al paradosso che l’Europa non ritiene di avere il potere di intervenire per regolamentare l’uso dell’intelligenza artificiale in ambito bellico, ma un privato può farlo
Laura Turini
Buongiorno a tutte e tutti,
questa sera vi aspetto alle 19 su Instagram, sul mio profilo e su quello di Radio3 per parlare della trasmissione che faccio ogni domenica su Radio3 alle 13.30: Le parole dell’economia.
L’idea è nata prima della scorsa estate, con il direttore Andrea Montanari e la responsabile dei programmi di informazione di Radio3 Cristiana Castellotti: spiegare l’economia in una radio che si occupa di quasi tutti gli aspetti del dibattito culturale, non soltanto intorno alle notizie, ma che non presidiava l’economia. Che non è un argomento, ma un modo di guardare la realtà, come lo sono tanti altri che Radio3 ha nella sua identità da decenni: la musica, la filosofia, la letteratura, il cinema…
Il palinsesto di Radio3 era già molto pieno, abbiamo trovato uno spazio a ora di pranzo la domenica, ma per fortuna grazie a RaiPlayRadio anche chi a quell’ora è a tavola può risentire tutto in modalità podcast.
Pensare quarantadue puntate per una stagione non è facile. Sia perché si tratta di trovare quarantadue argomenti diversi, quarantadue parole che compongono un lessico dell’economia contemporanea, ma anche perché una trasmissione settimanale richiede di essere vicini all’attualità ma non a commento del singolo fatto, come si può fare soltanto con quelle quotidiane.
Le parole dell’economia sono un dizionario immediatamente utilizzabile, non l’ennesima iniziativa di alfabetizzazione o educazione finanziaria (ce ne sono fin troppe, spesso un po’ troppo interessate perché promosse dalle banche): dall’intelligenza artificiale, ai chip, al lavoro, ai mercati digitali, agli influencer, all’inflazione…
A questo punto della stagione, mentre riflettiamo sul futuro, è il momento di sentire cosa ne pensate anche voi. E dico “voi” perché molti di quei temi sono gli stessi di cui abbiamo spesso discusso qui su Appunti, dunque spero che partecipiate questa sera alla diretta che Radio3 ha organizzato per fare un primo bilancio delle Parole dell’Economia.
Potete seguire e intervenire cercando il mio account Instagram o quello di Radio3, alle ore 19, conto sulle vostre domande e sui vostri suggerimenti!
Per oggi, vi lascio invece alla nostra Laura Turini che tocca un tema cruciale di cui si è parlato troppo poco fin qui: l’applicazione militare dell’intelligenza artificiale, argomento che dall’Ucraina a Gaza è sempre più concreto.
Laura Turini ha da poco lanciato la sua nuova newsletter qui su Substack, non posso che raccomandarvi caldamente di iscrivervi tutti e di farla conoscere: LISP
Buona giornata,
Stefano Feltri
PS: Per quelli di voi che domenica erano a fare un picnic al parco, vi rimetto qui sotto il mio pezzo sul caso Scurati-Rai
L’AI e la guerra privatizzata
Il Regolamento europeo sull’intelligenza artificiale entrerà in vigore, salvo imprevisti, a maggio e ne sentiremo parlare a lungo. Il suo contenuto è complesso e articolato ma, sostanzialmente, i punti centrali sono due.
Da un lato i buoni propositi. L’AI Act si propone di creare un quadro giuridico armonizzato per promuovere lo sviluppo dell’intelligenza artificiale garantendo gli interessi pubblici quali “la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente”.
Dall’altro la soluzione per attuarli. Un sistema di misure incentrato sulla valutazione del rischio e su cosa fare per mitigarlo.
In questo contesto si prevede che debba esserci un obbligo di trasparenza generalizzato, mentre per i sistemi considerati da alto rischio, che hanno un impatto rilevante sulla vita delle persone, come quelli per la selezione del personale, è previsto l’obbligo di dotarsi di procedure idonee a ridurre i possibili rischi, sia dal punto di vista gestionale che tecnico.
Ci sono poi alcuni settori che sono considerati a rischio inaccettabile e sono vietati. Lo sono, ad esempio, come abbiamo già visto su Appunti, quelli che influenzano il comportamento umano, i sistemi di social scoring e quelli di identificazione biometrica remota in tempo reale.
Colpisce che tra i sistemi vietati non sono inclusi i sistemi di intelligenza artificiale destinati a usi bellici.
Non solo, quando «i sistemi di IA sono immessi sul mercato, messi in servizio o utilizzati con o senza modifica di tali sistemi per scopi militari, di difesa o di sicurezza nazionale» sono del tutto esentati dall’applicazione dell’AI Act.
La motivazione di questa esclusione la troviamo nel Considerando (23) che chiarisce che “per quanto riguarda gli scopi militari e di difesa, l’esclusione è giustificata dall'articolo 4, par. 2, TUE (Trattato dell’Unione Europea) e dalle “specificità della politica di difesa comune degli Stati membri”, mentre per quanto riguarda le finalità di sicurezza nazionale, “l’esclusione è giustificata sia dal fatto che la sicurezza nazionale resta di esclusiva competenza degli Stati membri ai sensi dell'articolo 4, par. 2, TUE, sia dalla natura specifica e dalle esigenze operative delle attività di sicurezza nazionale, nonché dalle specifiche norme nazionali applicabili a tali attività”.
L’Europa ha quindi deciso di non mettersi a tavolino per fare fronte comune sugli strumenti più pericolosi in assoluto, ritenendo che sia il diritto internazionale pubblico “il quadro giuridico più appropriato per la regolamentazione dei sistemi di IA nel contesto dell’uso letale della forza e di altri sistemi di IA nel contesto delle attività militari e di difesa”.
Questo accade mentre, purtroppo, le guerre sono sempre più parte delle nostre vite, con gli scontri in Israele e Ucraina che lasciano ogni giorno sconcertati. Ed è proprio in questi due conflitti che l’intelligenza artificiale sembra svolgere un ruolo non secondario, grazie ad una società americana, Palantir Technologies, specializzata nell’analisi dei bid data e che ha ottenuto dal governo degli Stati Uniti oltre 170 milioni di dollari per la fornitura di stazioni terrestri gestite dall’intelligenza artificiale all’interno del progetto Titan, Tactical Intelligence Targeting Access Node.
Palantir ha sviluppato una specifica piattaforma di intelligenza artificiale per aiutare l’esercito in caso di conflitto, sia nella fase di analisi e di scelta degli obiettivi, sia nell’assumere decisioni e organizzare piano di attacco.
L’azienda ha fornito la sua tecnologia sia all’Ucraina che a Israele, schierandosi apertamente a favore di Israele e perdendo per questo molti dipendenti che, per protesta, hanno preferito dimettersi.
Il suo fondatore e amministratore delegato, Alex Karp, ha dichiarato che la sua tecnologia serve a rendere ancora più forti e sicuri gli Stati Uniti, che sono lo stato al mondo in cui questa tecnologia rivoluzionaria ha raggiunto il massimo sviluppo. Aiutare Israele, dal suo punto di vista, significa difendere i valori dell’Occidente e quindi la sua sarebbe una specie di missione.
Si è dichiarato orgoglioso di potere essere intervenuto sul campo di battaglia contro Hamas in tempi rapidi.
In un’intervista a CNBC ha dichiarato: “Dal mio punto di vista, non si tratta solo di Israele. È un po’ come se ti chiedessero: 'Credi nell'Occidente? Credi che l'Occidente abbia creato un modo di vivere superiore?”.
A prescindere dal fatto che non si vede dove sia scritto che la risposta a queste domande debba essere affermativa, viene da domandarsi chi sia Alex Karp per decidere cosa sia giusto o sbagliato e chi appoggiare o non appoggiare in una guerra.
Siamo al paradosso che l’Europa non ritiene di avere il potere di intervenire per regolamentare l’uso dell’intelligenza artificiale in ambito bellico, ma un privato può farlo.
In tutto questo sorge anche il dubbio che qualche “tragico incidente involontario”, come è stata definita l’uccisione a Gaza di sette operatori di una ONG lo scorso primo Aprile, possa essere frutto di un errore tecnico dell’intelligenza artificiale che prende il nome, non casuale, di allucinazione.
Il nuovo libro
C’è il mio nuovo libro lo trovate qui. E ne ho scritto qui.
Se volete vedere la presentazione a Quante storie, il programma di Rai3 condotto da Giorgio Zanchini, cliccate qui sotto: è su RaiPlay.
Appunti è possibile grazie al sostegno delle abbonate e degli abbonati. E’ con il loro contributo che Appunti può crescere e svilupparsi anche con progetti ambiziosi come La Confessione. Se pensi che quello che facciamo è importante, regala un abbonamento a qualcuno a cui tieni.
Il Podcast: La Confessione
Ascolta La Confessione, il podcast di inchiesta che rivela per la prima volta da dentro come funziona il sistema di copertura e insabbiamento degli abusi sessuali nella Chiesa cattolica italiana.
Un podcast realizzato da Stefano Feltri, Giorgio Meletti e Federica Tourn, realizzato grazie al sostegno della comunità di Appunti. Con la collaborazione di Carmelo Rosa e la consulenza per musiche ed effetti di Stefano Tumiati.
Errata corrige, 'Big data' e non 'bid data'
Non concordo con le tesi di questo articolo. Ritengo che sia prudente, da parte della UE, appellarsi al diritto internazionale per la regolamentazione dell'uso della A.I. per scopi bellici. Se la UE si desse dei limiti che però non sono rispettati da altri stati, si renderebbe vulnerabile rispetto a chi questi limiti non intende metterseli. Riguardo alle scelte del sig. Alex Karp, le sue argomentazioni mi sembrano quelle di un commerciante che vuole motivare con scelte ideali, per altro molto discutibili, scelte che sono probabilmente puramente economiche. Ma non è lui a dettare le regole, sono i governi che comprano i suoi prodotti a farlo. Ragion di più per appellarsi al diritto internazionale per una regolamentazione dell'uso della A.I a scopo bellico. Però, visto il tempo in cui viviamo, non ho molte aspettative.