Computare
STATI GENERALI DELLA COMPUTAZIONE - Una volta comprare un computer significava acquistare un oggetto dentro al quale succedevano cose, invece oggi è tutto più impalpabile. Ma un'epoca sta finendo
Tutto ciò che di davvero rilevante accade oggi nell’universo della computazione accade principalmente nelle due principali dimensioni dello stack: la scala microscopica dei chip e dei transistor e quella macroscopica delle infrastrutture di accumulazione, elaborazione e distribuzione dei dati
Cesare Alemanni
Buon pomeriggio,
come avrete notato, Appunti si occupa spesso di tecnologia, perché non possiamo non occuparcene. Vivere il nostro tempo significa capire che politica, etica, filosofia e letteratura hanno una dimensione tecnologica. Ma la cronaca spesso può distogliere dalle questioni di fondo.
Per questo ho accolto con entusiasmo la proposta di Cesare Alemanni di pubblicare su Appunti e sulla sua newsletter Macro una serie di articoli dall’ambizioso titolo “Stati Generali della computazione”, cioè una specie di rassegna dei grandi temi che definiscono la traiettoria delle nostre economie e delle nostre società.
Il futuro di Nvidia e quello di Intel, cioè dell’azienda dominante nel settore dei semiconduttori e di quella declinante, le incognite sui quantum computer, le prossime frontiere della miniaturizzazione…
Se vi interessano questi temi, ma ancora di più se non avete idea di che cosa si tratti, vi consiglio di seguire questa serie su Appunti e anche la newsletter di Cesare Alemanni, oltre che di leggere i suoi libri. L’ultimo è proprio dedicato ai semiconduttori:
Fateci sapere cosa ne pensate,
grazie
Stefano
Dopo l’età dei computer
di Cesare Alemanni
Una volta comprare un computer significava acquistare un oggetto dentro al quale succedevano delle cose, invece oggi è tutto più impalpabile, etereo distante. Ma un’epoca sta per finire
Affermare che viviamo nell’ “era digitale” è un luogo comune. Meno comune è ricordare come ciò che chiamiamo “era digitale” si regga in realtà su infrastrutture materiali che funzionano tramite computazione, ovvero calcoli.
Ancora meno ovvio è sottolineare come la complessità di tali sistemi, e dei relativi calcoli, non solo stia aumentando costantemente ma, per molti versi, stia cambiando pelle.
È chiamata ad affrontare problemi – di natura tecnica, fisica, politica, economica, etica, ecologica – inauditi. Problemi che aprono a molti interrogativi. Questioni che, come vedremo, riguardano il futuro di aziende da miliardi di dollari di fatturato, ma anche quello di intere economie, società e modi di vivere.
Per questa ragione ritengo utile mettere insieme una specie di riepilogo, a scopo divulgativo, di quello che è lo “stato della computazione” contemporanea. Lo farò in più “puntate”, pensate per essere pubblicate contemporaneamente sulla mia newsletter, Macro, e su quella di Stefano Feltri, Appunti. Questa è la prima: consideratela una sorta di introduzione.
La computazione è un’infrastruttura
Suppongo che se chiedessimo a cento italiani estratti a sorte di indicarci un computer, la stragrande maggioranza di essi ci mostrerebbe un desktop o un laptop. Qualcuno probabilmente uno smartphone. Una percentuale minore citerebbe una console da videogiochi. Pochissimi un’automobile o un elettrodomestico.
Come dimostra mia madre ogni volta che, consultando il meteo di Google, esclama: “domani piove, lo dice il cellulare”, la maggioranza di noi continua a concepire la computazione come una specie di magia che avviene soltanto all’interno degli oggetti tecnologici in nostro possesso ed è ad essi indissolubilmente legata. È un riflesso comprensibile. In fondo la computazione è entrata nelle nostre vite per prima cosa sotto forma di oggetti personali.
Dopo i primi decenni di evoluzione, in cui i computer occupavano intere stanze, negli anni Settanta la computazione ha cominciato a divenire un “oggetto di consumo”, una merce materiale.
Si entrava in un negozio e se ne usciva con un personal computer. Un oggetto. Un po’ più tardi se ne usciva con scatole piene di manuali e di cd per installare software. Altri oggetti. Infine, ancora più in là, se ne usciva con Playstation, iPod, iPhone. Sempre e comunque oggetti.
In parallelo a questa storia, ne scorrevano però già altre. Una aveva a che fare con le dimensioni (minori), le capacità (maggiori) e i costi (più bassi) di quegli oggetti. Essa dipendeva dal processo, di per sé strabiliante, di miniaturizzazione dei transistor (i neuroni artificiali della computazione) contenuti nei chip.
Un’evoluzione che ha fatto sì che la CPU del computer su cui scrivo contenga decine di miliardi di transistor nello spazio di pochi centimetri.
Se volete un metro di paragone: nel primo microprocessore, l’Intel 4004 del 1971, i transistor erano 2,300. Tuttavia questo processo di miniaturizzazione è oggi prossimo al suo limite fisico. E non solo: l’industria dei chip è, ormai da anni, al centro di una delle principali contese geopolitiche del nostro tempo.
Un’altra storia – comunque dipendente dalla precedente – aveva a che fare con la trasformazione della computazione da un fenomeno che avveniva principalmente all’interno di oggetti di fronte a noi, in un fenomeno che si svolgeva in luoghi distanti per esserci poi venduto sotto forma di servizi.
Questa storia inizia, già negli anni Cinquanta, con i primi esperimenti di interconnessione dei computer in reti.
Col tempo queste reti si inspessiscono e infittiscono e cominciano a generare, gestire, immagazzinare informazione che non risiede più fisicamente nell’hardware di chi ne fa uso ma si trova altrove, dentro computer specializzati chiamati (non a caso) server, e viene distribuita attraverso cavi, fibre e segnali.
Man mano che questo tipo di computazione avanza, e i servizi che offre divengono sempre più appariscenti nelle nostre vite, i server si fanno più potenti e numerosi, al punto che, per contenerli, diviene necessario costruire delle vere e proprie cattedrali della computazione: i famosi data center.
Questa seconda evoluzione è la ragione per cui, negli ultimi quindici anni, siamo divenuti dipendenti da social media, app, piattaforme; nonché il motivo per cui sentiamo quotidianamente parlare di big data, cyber-security e intelligenza artificiale.
Benché spesso si presenti questo sviluppo con un termine etereo come cloud computing, o semplicemente cloud (nuvola), la realtà è che questa “nuvola” non ha nulla di impalpabile. Tutt’altro. Essa può fluttuare sopra le nostre teste solo grazie a una gigantesca infrastruttura materiale. O meglio grazie a uno stack (pila) di infrastrutture che, tramite una serie di standard, connette, coordina e integra diversi livelli e protocolli di computazione.
Micro e macro
Tutto ciò che di davvero rilevante accade oggi nell’universo della computazione accade principalmente nelle due principali dimensioni dello stack: la scala microscopica dei chip e dei transistor e quella macroscopica delle infrastrutture di accumulazione, elaborazione e distribuzione dei dati. Le due scale sono interdipendenti, nel senso che dalle direzioni, e dai ritmi, dello sviluppo di una dipende l’altra e viceversa. I problemi dell’una diventano spesso dell’altra e così via.
Questa interdipendenza esisteva già da parecchio ma negli ultimi dieci anni si è ulteriormente approfondita in virtù della crescita del settore dell’intelligenza artificiale che, più di ogni altro, rappresenta un punto di sutura tra le due dimensioni.
La computazione necessaria allo sviluppo dell’intelligenza artificiale (AI) non solo sta mutando la natura dell’infrastruttura della computazione ma sta anche esasperando alcune sue criticità. Come accennavo all’inizio, tali criticità sono di diversa natura, così come di diversa natura sono le loro conseguenze sul mondo in cui viviamo e vivremo.
Alla base dello stack dell’AI – le sue fondamenta, per così dire – c’è, come detto, il microchip, la particella elementare della computazione, dal cui sviluppo dipende da sempre la progressione della potenza di calcolo a nostra disposizione.
Tale progressione è stata osservata, già agli esordi della tecnologia, da uno dei suoi pionieri: Gordon Moore. Il quale, nel 1965, notò che “la complessità di un chip, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi”. Questa osservazione è passata alla storia come “legge di Moore”.
Essa tuttavia non è affatto una “legge”, nel senso in cui si intende il termine in campo matematico o fisico. La parola chiave in questo caso è “osservazione”.
Nel 1965 Moore fece caso a una tendenza iniziale relativa all’aumento del numero dei transistor e si limitò a ipotizzare che tale tendenza sarebbe potuta durare per un certo periodo di tempo. La sua osservazione non aveva rigore scientifico né pretendeva di averlo.
Tuttavia, anche grazie agli sforzi compiuti da scienziati e ingegneri per rispettarla, la “legge di Moore” è sopravvissuta per quasi mezzo secolo, fornendoci un’esplosione di potere di computazione a costi sempre più contenuti.
È grazie alla validità della predizione di Moore se l’informatica si è (finora) presentata come un fenomeno sempre più inclusivo e se la computazione è entrata nelle nostre vite sotto forma di oggetti via, via sempre più piccoli ed economici.
La “legge di Moore” non è purtroppo destinata a durare per sempre. I transistor possono essere rimpiccioliti solo fino a un certo punto.
Dopodiché le leggi della fisica classica lasciano il posto a quelle della meccanica quantistica che rendono impossibile controllare i flussi di elettroni a fini computativi.
Già oggi i transistor, e i fili che li connettono, sono misurati su scala atomica, poco più larghi di un filamento di DNA umano (2,5 nanometri).
Sebbene resti ancora margine per rimpicciolirli, i progressi nella miniaturizzazione dei transistor diventano ogni anno più lenti e costosi e, in ogni caso, tra non molto (stime ottimistiche parlano del 2036) dovranno arrendersi di fronte a limiti fisici al momento invalicabili.
Possiamo insomma discutere a lungo (e nell’industria dei chip lo si fa di continuo) se la legge di Moore sia ancora viva o sia già morta (come suggeriscono alcuni indicatori) ma quel che è certo è che ci avviciniamo al suo capezzale.
La fine della legge di Moore non solo sta spingendo alla ricerca di strumenti e sistemi computativi alternativi (ne parleremo in un prossimo episodio) ma sta portando all’estremo la complessità tecnica inerente alla progettazione e alla manifattura dei microchip, con effetti soprattutto economici.
Il risultato è che il settore è oggi piagato da una ipertrofia dei costi che coinvolge l’intera catena del valore: macchinari di produzione da 300 milioni di dollari a pezzo, impianti che costano 12-20 miliardi per una singola fabbrica, ingegneri con costi di formazione elevatissimi e così via.
Tutto ciò si traduce nel fatto che, per esempio, lo sviluppo di Blackwell, la nuova architettura per GPU di Nvidia, ha richiesto all’azienda di Santa Clara un investimento di quasi 10 miliardi, per un prodotto che verrà immesso sul mercato a un prezzo che dovrebbe oscillare, a seconda della configurazione, tra i 30 e i 70mila dollari per esemplare.
Cifre simili per un singolo pezzo di hardware sono una netta inversione rispetto alla tendenza a diventare più economica e personale che aveva contrassegnato la precedente fase della computazione.
E infatti le GPU di Nvidia non sono un prodotto destinato a semplici consumatori, ma sono, a tutti gli effetti, un componente industriale altamente specializzato che viene principalmente utilizzato – con singole ordinazioni da centinaia di milioni di dollari – nei data center delle aziende del “big tech” che partecipano alla cosiddetta “corsa alla AI”.
È intorno a questa corsa che oggi la storia “micro” dei chip e dei transistor, incrocia la dimensione “macro” delle infrastrutture della computazione legata all’addestramento dell’intelligenza artificiale.
Il risultato di questo incontro è che 1) l’infrastruttura della computazione si sta sovraccaricando di enormi stress energetici ed ecologici e 2) si sta trasformando in un settore in cui la differenza tra perdite e profitti dipende da enormi economie di scala che solo una manciata di aziende, dalle tasche profondissime e dal know-how particolarmente vasto, possono raggiungere.
E proprio l’aumento della bolletta energetica complessiva dell’AI stack e le conseguenze, economiche e geopolitiche, della proibitiva barriera di capitali al suo ingresso saranno i temi della prossima puntata.
1 - continua
Appunti è possibile grazie al sostegno delle abbonate e degli abbonati. E’ con il loro contributo che Appunti può crescere e svilupparsi anche con progetti ambiziosi come La Confessione. Se pensi che quello che facciamo è importante, regala un abbonamento a qualcuno a cui tieni.
L’evento: Geopolitica dei Semiconduttori
Qualche giorno fa con Cesare Alemanni abbiamo discusso, insieme a Sanne van fer Lugt, Roberto Baldoni e Alessia Amighini, di geopolitica dei semiconduttori, in un evento organizzato dall’Institute for European Policymaking della Bocconi, a Milano, presso la libreria Egea. Trovate il video qui:
Ho letto su suggerimento di Stefano Feltri su questa newsletter il bellissimo libro di Alemanni, ho già mandato un piccolo messaggio di complimenti in passato. Tenete presente che mi sono laureato anche a Stanford, presso il Laboratorio di Circuiti Integrati e quindi nel vero cuore della Silicon Valley nel 1979 e da allora ho vissuto tutto l'evoluzione delle tecnologie e del mercato dei semiconduttori. Ed è la prima volta che leggo un libro divulgativo senza alcuno strafalcione dal punto di vista tecnologico o strategico e assolutamente aggiornato e competente, quindi complimenti a Cesare. Ho un solo commento su questa prima versione della newsletter, che riprende per altro argomenti già presenti nel suo libro. È vero che per la prima volta nella storia dell'industria dei semiconduttori il trend di prezzo dei chip e dei sottosistemi è in salita invece che in discesa ma questa situazione è sostanzialmente innescata dal fatto che c'è oggi di fatto un monopolio di Nvidia che si è trovata quasi per caso ad avere la tecnologie giusta al momento giusto e quindi da un lato è lei ha fare i prezzi. A questo possiamo aggiungere la crescita esponenziale dell'uso di algoritmi di IA, crescita innescata da ChatGPT e per certi versi imprevedibile qualche anno fa nella sua forma attuale (consiglio sull'argomento un altro bel libro che ho letto con estremo interesse sempre suggerito da Stefano e cioè Machina Sapiens di Nello Cristianini). Oggi per supportare al meglio, ma si vorrebbe di più, questa crescita possiamo usare solo i chip Nvidia, da cui aumento dei prezzi. Ma cosa ci aspetta? Io credo che il trend di aumento prestazioni e calo dei prezzi che Alemanni ha ben descritto possa ritornare nei prossimi anni. Perchè? Perchè in questo momento ci sono almeno una ventina di startup e scaleup in tutto il mondo, anche in India e Cina che stanno sviluppando nuove architetture di chip ottimizzate per l'IA, e questo permetterà non solo di aumentare le prestazioni ma soprattutto di ridurre i prezzi, e c'è sicuramente molto margine di riduzione dei prezzi Nvidia. Quindi aumenterà la concorrenza, aumenteranno le prestazioni e a tendere si ridurranno i prezzi come è sempre successo negli ultimi 50 anni. Inutile dire che l'Italia purtroppo è fuori da questa corsa perché non esiste in Italia una vera e propria industria Fabless, cioè di società che progettano e commercializzano chip senza avere la propria fabbrica, con l'unica lodevole eccezione di una società europea, non italiana, che citai anche nel mio vecchio messaggio, che è basata in Olanda ma ha un CEO italiano molto in gamba, molti italiani tra gli ingegneri e un piano a breve termine, grazie a CDP Venture, di espandere il team di progettazione in Italia focalizzandolo su quello che sarà il microprocessore europeo/mondiale del futuro e cioè RISC-V. La società si chiama Axelera AI e la vedremo a cominciare dal prossimo anno su questo mercato e spero prima o poi a competere con Nvidia.
Argomento un po' complesso ma molto interessante. E' il tipo di cultura che serve a chi come me ha passato i 50 e vuole capirne qualcosa!