STATI GENERALI DELLA COMPUTAZIONE - Una volta comprare un computer significava acquistare un oggetto dentro al quale succedevano cose, invece oggi è tutto più impalpabile. Ma un'epoca sta finendo
È’ un ottimo inizio per comprendere l’attualità della era digitale in cui viviamo. Spero venga trattato l’altro elemento chiave: il software in generale e le capacità di integrazione e colloquio tra funzioni diverse che sono il vero lasciapassare per utilizzare tutto questo
Ho letto su suggerimento di Stefano Feltri su questa newsletter il bellissimo libro di Alemanni, ho già mandato un piccolo messaggio di complimenti in passato. Tenete presente che mi sono laureato anche a Stanford, presso il Laboratorio di Circuiti Integrati e quindi nel vero cuore della Silicon Valley nel 1979 e da allora ho vissuto tutto l'evoluzione delle tecnologie e del mercato dei semiconduttori. Ed è la prima volta che leggo un libro divulgativo senza alcuno strafalcione dal punto di vista tecnologico o strategico e assolutamente aggiornato e competente, quindi complimenti a Cesare. Ho un solo commento su questa prima versione della newsletter, che riprende per altro argomenti già presenti nel suo libro. È vero che per la prima volta nella storia dell'industria dei semiconduttori il trend di prezzo dei chip e dei sottosistemi è in salita invece che in discesa ma questa situazione è sostanzialmente innescata dal fatto che c'è oggi di fatto un monopolio di Nvidia che si è trovata quasi per caso ad avere la tecnologie giusta al momento giusto e quindi da un lato è lei ha fare i prezzi. A questo possiamo aggiungere la crescita esponenziale dell'uso di algoritmi di IA, crescita innescata da ChatGPT e per certi versi imprevedibile qualche anno fa nella sua forma attuale (consiglio sull'argomento un altro bel libro che ho letto con estremo interesse sempre suggerito da Stefano e cioè Machina Sapiens di Nello Cristianini). Oggi per supportare al meglio, ma si vorrebbe di più, questa crescita possiamo usare solo i chip Nvidia, da cui aumento dei prezzi. Ma cosa ci aspetta? Io credo che il trend di aumento prestazioni e calo dei prezzi che Alemanni ha ben descritto possa ritornare nei prossimi anni. Perchè? Perchè in questo momento ci sono almeno una ventina di startup e scaleup in tutto il mondo, anche in India e Cina che stanno sviluppando nuove architetture di chip ottimizzate per l'IA, e questo permetterà non solo di aumentare le prestazioni ma soprattutto di ridurre i prezzi, e c'è sicuramente molto margine di riduzione dei prezzi Nvidia. Quindi aumenterà la concorrenza, aumenteranno le prestazioni e a tendere si ridurranno i prezzi come è sempre successo negli ultimi 50 anni. Inutile dire che l'Italia purtroppo è fuori da questa corsa perché non esiste in Italia una vera e propria industria Fabless, cioè di società che progettano e commercializzano chip senza avere la propria fabbrica, con l'unica lodevole eccezione di una società europea, non italiana, che citai anche nel mio vecchio messaggio, che è basata in Olanda ma ha un CEO italiano molto in gamba, molti italiani tra gli ingegneri e un piano a breve termine, grazie a CDP Venture, di espandere il team di progettazione in Italia focalizzandolo su quello che sarà il microprocessore europeo/mondiale del futuro e cioè RISC-V. La società si chiama Axelera AI e la vedremo a cominciare dal prossimo anno su questo mercato e spero prima o poi a competere con Nvidia.
Buongiorno Massimo, intanto la ringrazio ancora per le parole spese. Venendo da una persona del settore sono ancora più apprezzate. Riguardo ai costi, io ovviamente non sono un tecnico ma mi pare che molti tecnici che leggo siano concordi nel dire che, al di là del monopolio di Nvidia, ci sia proprio un problema di rendimenti decrescenti della miniaturizzazione e di aumento dei costi di tutta la filiera dovuto a problemi strettamente fisici.
So che si discute di strade alternative per la computazione AI e non solo a livello di infrastruttura e di chip (tra cui la questione dell'on device AI etc) ma anche di codice, algoritmi, ottimizzazione delle banche dati. Questo tema – cioè quello delle strade alternative agli hyperscaler e agli stack attuali – sarà proprio il tema dell'ultima puntata di questa serie (che verrà pubblicato sulla mia newsletter e qui su quella di Stefano). Perché aldilà di tutto – e del fatto che non sono un tecnico – anche io sto ricavando l'impressione che molti dei problemi attuali siano legati alle contingenze della fase (un po' pionieristica) in cui ci troviamo. In quella sede sicuramente citerò anche Axelera che è una delle aziende che mi sembra abbia appunto messo "nel mirino" le inefficienze dell'attuale infrastruttura.
L'articolo mi è piaciuto molto, complimenti all'autore. Ho già scritto, non ricordo dove, dell'impatto dei grandi Data Center, come quelli di Google o altri, sparsi nel mondo, e sul dispendio energetico mostruoso che richiedono. A maggior ragione l'AI, e facendo una banale ricerca con chatGPT (😁) si vede che un DC di medie dimensioni divora la stessa energia di una cittadina di 50K abitanti, mentre la popolazione umana ha superato gli 8 miliardi, chiedendo sempre più consumi, all'Occidentale diciamo. Insomma, sembra che l'ICT anziché aiutarci a risolvere problemi, sia diventata parte del problema. Come se ne uscirà? Noi (umani) o loro (le AI)?
Interessante, grazie
È’ un ottimo inizio per comprendere l’attualità della era digitale in cui viviamo. Spero venga trattato l’altro elemento chiave: il software in generale e le capacità di integrazione e colloquio tra funzioni diverse che sono il vero lasciapassare per utilizzare tutto questo
bellissima spiegazione. Ma non è stato il nostro Federico Faggin a realizzare il primo microprocessore sia pure pare la Intel?
Posso solo dire grazie delle spiegazione oni
Ho letto su suggerimento di Stefano Feltri su questa newsletter il bellissimo libro di Alemanni, ho già mandato un piccolo messaggio di complimenti in passato. Tenete presente che mi sono laureato anche a Stanford, presso il Laboratorio di Circuiti Integrati e quindi nel vero cuore della Silicon Valley nel 1979 e da allora ho vissuto tutto l'evoluzione delle tecnologie e del mercato dei semiconduttori. Ed è la prima volta che leggo un libro divulgativo senza alcuno strafalcione dal punto di vista tecnologico o strategico e assolutamente aggiornato e competente, quindi complimenti a Cesare. Ho un solo commento su questa prima versione della newsletter, che riprende per altro argomenti già presenti nel suo libro. È vero che per la prima volta nella storia dell'industria dei semiconduttori il trend di prezzo dei chip e dei sottosistemi è in salita invece che in discesa ma questa situazione è sostanzialmente innescata dal fatto che c'è oggi di fatto un monopolio di Nvidia che si è trovata quasi per caso ad avere la tecnologie giusta al momento giusto e quindi da un lato è lei ha fare i prezzi. A questo possiamo aggiungere la crescita esponenziale dell'uso di algoritmi di IA, crescita innescata da ChatGPT e per certi versi imprevedibile qualche anno fa nella sua forma attuale (consiglio sull'argomento un altro bel libro che ho letto con estremo interesse sempre suggerito da Stefano e cioè Machina Sapiens di Nello Cristianini). Oggi per supportare al meglio, ma si vorrebbe di più, questa crescita possiamo usare solo i chip Nvidia, da cui aumento dei prezzi. Ma cosa ci aspetta? Io credo che il trend di aumento prestazioni e calo dei prezzi che Alemanni ha ben descritto possa ritornare nei prossimi anni. Perchè? Perchè in questo momento ci sono almeno una ventina di startup e scaleup in tutto il mondo, anche in India e Cina che stanno sviluppando nuove architetture di chip ottimizzate per l'IA, e questo permetterà non solo di aumentare le prestazioni ma soprattutto di ridurre i prezzi, e c'è sicuramente molto margine di riduzione dei prezzi Nvidia. Quindi aumenterà la concorrenza, aumenteranno le prestazioni e a tendere si ridurranno i prezzi come è sempre successo negli ultimi 50 anni. Inutile dire che l'Italia purtroppo è fuori da questa corsa perché non esiste in Italia una vera e propria industria Fabless, cioè di società che progettano e commercializzano chip senza avere la propria fabbrica, con l'unica lodevole eccezione di una società europea, non italiana, che citai anche nel mio vecchio messaggio, che è basata in Olanda ma ha un CEO italiano molto in gamba, molti italiani tra gli ingegneri e un piano a breve termine, grazie a CDP Venture, di espandere il team di progettazione in Italia focalizzandolo su quello che sarà il microprocessore europeo/mondiale del futuro e cioè RISC-V. La società si chiama Axelera AI e la vedremo a cominciare dal prossimo anno su questo mercato e spero prima o poi a competere con Nvidia.
Buongiorno Massimo, intanto la ringrazio ancora per le parole spese. Venendo da una persona del settore sono ancora più apprezzate. Riguardo ai costi, io ovviamente non sono un tecnico ma mi pare che molti tecnici che leggo siano concordi nel dire che, al di là del monopolio di Nvidia, ci sia proprio un problema di rendimenti decrescenti della miniaturizzazione e di aumento dei costi di tutta la filiera dovuto a problemi strettamente fisici.
So che si discute di strade alternative per la computazione AI e non solo a livello di infrastruttura e di chip (tra cui la questione dell'on device AI etc) ma anche di codice, algoritmi, ottimizzazione delle banche dati. Questo tema – cioè quello delle strade alternative agli hyperscaler e agli stack attuali – sarà proprio il tema dell'ultima puntata di questa serie (che verrà pubblicato sulla mia newsletter e qui su quella di Stefano). Perché aldilà di tutto – e del fatto che non sono un tecnico – anche io sto ricavando l'impressione che molti dei problemi attuali siano legati alle contingenze della fase (un po' pionieristica) in cui ci troviamo. In quella sede sicuramente citerò anche Axelera che è una delle aziende che mi sembra abbia appunto messo "nel mirino" le inefficienze dell'attuale infrastruttura.
L'articolo mi è piaciuto molto, complimenti all'autore. Ho già scritto, non ricordo dove, dell'impatto dei grandi Data Center, come quelli di Google o altri, sparsi nel mondo, e sul dispendio energetico mostruoso che richiedono. A maggior ragione l'AI, e facendo una banale ricerca con chatGPT (😁) si vede che un DC di medie dimensioni divora la stessa energia di una cittadina di 50K abitanti, mentre la popolazione umana ha superato gli 8 miliardi, chiedendo sempre più consumi, all'Occidentale diciamo. Insomma, sembra che l'ICT anziché aiutarci a risolvere problemi, sia diventata parte del problema. Come se ne uscirà? Noi (umani) o loro (le AI)?
Ottima iniziativa la divulgazione di questi temo grazie
Molto interessante e ben scritto
Argomento un po' complesso ma molto interessante. E' il tipo di cultura che serve a chi come me ha passato i 50 e vuole capirne qualcosa!
Molto interessante! Grazie