Il nulla del papa sull'intelligenza artificiale
Il G7 di Puglia doveva indicare una via condivisa alla gestione di potenzialità e rischi dell'IA, ma ha generato soltanto banalità già sentite
Sono temi complessi, ma quello che sorprende è che la chiave di volta per affrontare tutti i problemi e le sfide dell’intelligenza artificiale, resta sempre e solo l’etica o, meglio, l’algoretica, l’etica degli algoritmi, che dovrebbe indurre le macchine ad operare per il bene comune
Laura Turini
Buongiorno a tutte e tutti,
per tutta la settimana mi trovate in conduzione di Prima Pagina, la storica rassegna stampa di Radio3, che ogni sette giorni cambia conduttore.
Dalle 7.15 alle 8.40 circa. Sarebbe bello se qualcuno della comunità di Appunti chiamasse e riuscisse a intervenire!
Oggi, intanto, torna la nostra Laura Turini che ha il coraggio di scrivere quello che - credo - molti pensano e nessuno osa esplicitare: sull’intelligenza artificiale il G7 e in particolare il Papa hanno prodotto soltanto banalità assai poco concrete.
Credo dica molto di questo paese il fatto che il dibattito sull’intelligenza artificiale venga delegato in gran parte a uomini di Chiesa: Papa Francesco trattato come un oracolo (ma avrà mai provato a usare ChatGpt?) e il governo che si affida al francescano Paolo Benanti per la commissione algoritmi che sta definendo le strategie dell’esecutivo sul tema.
Da paese in via di sottosviluppo che si crogiola in settori maturi da due secoli come turismo e ristorazione, verso la tecnologia abbiamo lo stesso rapporto dei popoli più primitivi: la guardiamo con stupore e terrore, come fosse qualcosa di magico, di soprannaturale. E dunque non può stupire che chiediamo a preti e pontefici di spiegarcela invece che a informatici, linguisti o giuristi (e magari filosofi).
Buona lettura e a domani,
Stefano
Il G7 e l’intelligenza artificiale del niente
di Laura Turini
C’era grande attesa per quello che si sarebbe detto al G7 in Puglia sull’intelligenza artificiale (IA).
A ottobre la presidente del Consiglio Giorgia Meloni aveva annunciato di volerla porre al centro dell’incontro, per poi uscirne alla fine con il riconoscimento condiviso della “necessità di approcci alla governance dell'IA che favoriscano l'inclusione, per aiutarci a sfruttare il potenziale dell'IA in un modo che rifletta questi valori e promuova il suo sviluppo mitigandone i rischi, anche per quanto riguarda i diritti umani”, come si legge nella nota congiunta.
L’intervento più atteso è stato quello di Papa Francesco, che ha ribadito l’importanza di mantenere al centro della tecnologia l’uomo.
Concetti scontati, su cui è facile essere d’accordo, e piuttosto stantii.
Lo scrittore Isaac Asimov aveva fatto di meglio nelle sue famose leggi della robotica, riprese anche nella prima proposta europea di regolamentazione della robotica del 2016, mai approvata, forse perché troppo avveniristica.
Banalità papali
Da Borgo Egnazia non è uscito niente di nuovo, se non un certo sgomento.
Anche il discorso del Pontefice non è stato particolarmente entusiasmante. Francesco ha definito l’intelligenza artificiale uno “strumento affascinante e tremendo”, uno dei più straordinari frutti del potenziale creativo umano, una manifestazione tangibile di quella “saggezza, intelligenza e scienza” che, secondo le Sacre Scritture, Dio ha donato all’umanità.
Ha ricordato i suoi impatti in numerosi ambiti, dalla medicina alla comunicazione, dall’educazione alla politica, evidenziando che influenzerà sempre più profondamente la nostra esistenza, le relazioni sociali e perfino la nostra concezione dell’identità umana.
L’intelligenza artificiale non è uno strumento come gli altri – ha detto - ma è qualcosa di diverso per la sua capacità di adattarsi e di operare scelte indipendenti, per cui si deve stare attenti a non delegarle completamente le decisioni perché ciò significherebbe rinunciare alla nostra umanità, privandoci della capacità di determinare il nostro destino.
In questo scenario il Papa ha ribadito che può essere fonte di discriminazione e che nessuna macchina dovrebbe mai decidere se uccidere un uomo, ammonendo sull’uso dell’intelligenza artificiale in ambito bellico, anche se questo intervento, senza dubbio apprezzabile nella sostanza, stride con il comandamento di non uccidere che è rivolto all’uomo.
Il Pontefice ha parlato anche di giustizia e di quanto sia pericoloso utilizzare sistemi che calcolano la propensione al crimine di una persona, raccomandando che le decisioni non vengano mai assunte autonomamente da una macchina che calcola sulla base di algoritmi che sono lontani dai criteri di valutazione dell’essere umano.
Non c’è soltanto l’etica
Sono temi complessi, ma quello che sorprende è che la chiave di volta per affrontare tutti i problemi e le sfide dell’intelligenza artificiale, resta sempre e solo l’etica o, meglio, l’algoretica, l’etica degli algoritmi, che dovrebbe indurre le macchine ad operare per il bene comune.
Tutti questi concetti erano già stati espressi nella Rome Call for AI Ethics del 2020, sono passati quattro anni, l’intelligenza artificiale è in continua evoluzione e siamo ancora fermi lì.
Nessuno nega l’importanza dell’etica e della centralità dell’uomo, ma non è dato sapere cosa si intende fare in concreto.
L’Europa ha varato l’AI Act, con il fine di armonizzare le normative nazionali ma soprattutto per garantire il rispetto dei diritti fondamentali dell’uomo e nel farlo ha dimostrato la debolezza di un intervento normativo per uno scopo così elevato. Il Regolamento europeo si propone di raggiungerlo utilizzando criteri e metodologie adottate per la sicurezza dei prodotti, incentrandosi sul concetto di rischio che deve essere parametrato al rischio di violare i diritti fondamentali.
In questo contesto è stata imposta l’adozione di una FRIA, Fundamental Rights Impact Assessment, ovvero una valutazione d’impatto per calcolare, come si fa per la sicurezza dei prodotti, il rischio che l’uso di una macchina, in questo caso l’intelligenza artificiale, possa produrre un danno e adottare di conseguenza le misure per mitigarlo.
Per fare questo si ricorre a norme tecniche, e non a caso a Novembre 2023 è stata varata la normativa ISO 42001 pensata proprio per l’intelligenza artificiale, con la peculiarità che non stiamo parlando del rischio di un danno qualsiasi, ma della probabilità di incidere negativamente sui diritti fondamentali e questo pone seri dubbi che una norma tecnica possa riuscire nell’intento.
La realtà è che non abbiamo strumenti adeguati per affrontare quello che ci aspetta e ricorriamo a vecchi schemi mentali nel disperato tentativo di arginare un fiume in piena.
In questo contesto a dormire sonni tranquilli, per non dire euforici, sono i soliti big della tecnologia, che continuano indisturbati a sviluppare macchine sempre più potenti, nuovi modelli di machine learning, attuando visioni dell’umanità a loro insindacabile giudizio.
Peccati di omissione
Il futuro dell’intelligenza artificiale è in mano ai privati. Questo è il problema vero, che dal G7 non è stato neppure sfiorato.
Mai come adesso il potere di chi detiene la tecnologia ha raggiunto livelli preoccupanti, con imprese che non hanno come obiettivo primario il bene comune e il cui bilancio supera di gran lunga il Pil di molti paesi.
All’interno del G7 l’intelligenza artificiale avrebbe dovuto essere trattata seriamente come un tema fondante perché da essa dipende il nostro futuro e la sopravvivenza stessa della politica, prima ancora che dell’umanità.
Da anni indirizziamo il mondo scegliendo i servizi di Microsoft piuttosto che quelli di Google, puntando sull’open source piuttosto che sui servizi proprietari, molto più che recandoci dentro urne elettorali ormai deserte.
C’è bisogno di trovare soluzioni nuove, forme di collaborazione attiva tra pubblico e privato, alimentare un dibattito serio sulle materie prime e sull’energia. Siamo in una fase storica in cui si devono ripensare le categorie fondamentali con uno spirito rivoluzionario, mentre dal G7 si esce con concetti vecchi e soprattutto inutili all’atto pratico.
Niente cambierà da domani, perché di niente si è parlato e ben poco si è capito. Sul destino dell’intelligenza artificiale aspettiamo di leggere i comunicati di OpenAI, l’azienda che ha creato ChatGPT.
Appunti è possibile grazie al sostegno delle abbonate e degli abbonati. E’ con il loro contributo che Appunti può crescere e svilupparsi anche con progetti ambiziosi come La Confessione. Se pensi che quello che facciamo è importante, regala un abbonamento a qualcuno a cui tieni.
Il Podcast: La Confessione
Ascolta La Confessione, il podcast di inchiesta che rivela per la prima volta da dentro come funziona il sistema di copertura e insabbiamento degli abusi sessuali nella Chiesa cattolica italiana.
Un podcast realizzato da Stefano Feltri, Giorgio Meletti e Federica Tourn, realizzato grazie al sostegno della comunità di Appunti. Con la collaborazione di Carmelo Rosa e la consulenza per musiche ed effetti di Stefano Tumiati.
A chi di interesse segnalo che stamattina Raffele Liguori di Radio Popolare mi ha intervistato su "Pubblica" in merito a questo articolo e dopo di me la professoressa Teresa Numerico, che ha condiviso certe perplessità. Buon ascolto!
parole sacrosante. Ma si conferma la totale inadeguatezza di una classe politica culturalmente ferma al diploma per geometri. Con tutto il rispetto per i geometri. Quelli veri. Sul papa calo un velo pietoso, anche grazie alle indagini -più che meritorie- dell'ottimo Feltri.....