Come il tabacco
Le piattaforme digitali vogliono convincerci che con qualche modifica i loro prodotti possono diventare più sicuri e meno dannosi. La stessa strategia (fallita) dei produttori di sigarette
Un farmaco, prima di essere commercializzato, deve superare anni di sperimentazione clinica, ottenere l’approvazione dell’EMA in Europa o della FDA negli Stati Uniti, riportare sulle confezioni la lista degli effetti collaterali, essere monitorato dopo l’immissione in commercio. Al contrario, un algoritmo progettato per massimizzare la dipendenza psicologica di milioni di bambini non ha bisogno di nulla di tutto questo. Può essere lanciato liberamente sul mercato e sarà giudicato - se mai lo sarà - solo a posteriori, quando si potrà dimostrare quali danni sono stati prodotti
Enrico Pedemonte
Su Appunti leggi anche
Alcuni giorni fa la Corte Superiore di Los Angeles ha pubblicato una sentenza storica: ha condannato Meta e Alphabet a risarcire, con tre milioni di dollari, una ragazza di vent’anni per i danni psichici provocati da Facebook e YouTube: la ragazza, che usava i social fin da quando aveva sei anni, aveva cominciato ad avere pensieri suicidi già durante l’infanzia.
La giuria californiana ha ritenuto che le piattaforme abbiano deliberatamente progettato algoritmi che creano dipendenza - scrolling infinito, notifiche, raccomandazioni personalizzate mirate a prolungare il tempo di permanenza della giovane sulla piattaforma.
Questa sentenza potrebbe avere un impatto enorme sulle leggi che regolano l’attività delle piattaforme digitali, se i parlamenti riusciranno a riemergere dalla cappa imposta dalle lobby che difendono gli interessi di Big Tech.
Osservando l’evoluzione delle piattaforme negli ultimi vent’anni, infatti, emerge il carattere anomalo dell’industria digitale.
In altri settori le aziende, prima di commercializzare un prodotto, sono obbligate a seguire norme stringenti per scongiurare danni ai cittadini e all’ambiente: accade quando si mette sul mercato un farmaco, una nuova auto, un prodotto alimentare, qualunque tecnologia che vada nelle mani dei consumatori.
Nel caso degli algoritmi che regolano il funzionamento dei social network, che pure accompagnano la vita di miliardi di persone, le cavie siamo noi: non esiste alcuna regola per proteggerci dagli eventuali danni provocati da queste tecnologie.
Eppure esistono centinaia di studi che da oltre un decennio documentano i danni provocati dai social network, e non solo sui più giovani.
Quello che sappiamo
Il tribunale californiano non ha scoperto nulla di nuovo. Io stesso nel 2024 ho pubblicato un libro (La fattoria degli umani, Treccani libri) dove descrivo i problemi sociali e politici creati dall’industria digitale. Lasciatemi citare i più significativi, prima di addentrarmi a descrivere la resistenza delle piattaforme e le possibili soluzioni.
Jean Twenge, una psicologa della San Diego State University che studia il problema da molti anni, sostiene di avere notato un brusco cambiamento nello stato emotivo degli adolescenti fin dal 2011, quando la percentuale di depressi e suicidi tra i ragazzi ha cominciato a impennarsi.
Twenge rivela che, in un documento trapelato dall’interno di Facebook, l’azienda sottolinea con gli inserzionisti la sua capacità di determinare lo stato emotivo dei giovanissimi in base al loro comportamento sul sito, persino di individuare «i momenti in cui i giovani hanno bisogno di una spinta di fiducia».
Lo psicologo Jonathan Haidt, nel best-seller La generazione ansiosa (Rizzoli, 2024), sostiene che l’impennata della depressione e dell’autolesionismo tra gli adolescenti si osserva a partire dal 2012, l’anno in cui l’uso degli smartphone e dei social è dilagato tra i giovani, e che tra le due cose esiste una forte correlazione. Andreas Schleicher, l’inventore del programma PISA dell’OCSE, segnala da tempo un crollo della qualità dell’istruzione e delle competenze degli adolescenti proprio a partire dal 2012.
La Società Italiana di Pediatria, analizzando 68 ricerche condotte dal 2004 al 2022, conclude che più tempo i ragazzi trascorrono sui social network, più alto è il rischio che sviluppino sintomi depressivi; in particolare, viene riscontrata un’«associazione significativa» tra la depressione dei giovani con meno di 18 anni e l’uso di piattaforme come Facebook, Instagram e TikTok.
Uno dei ricercatori, Rino Agostiniani, dice: «Quello che emerge in modo inequivocabile è che più tempo i bambini e gli adolescenti trascorrono sui dispositivi digitali, più alti livelli di depressione vengono segnalati. E ciò avviene senza grandi distinzioni geografiche: dalla Svezia all’Egitto».
Il meccanismo è ormai noto. La raccolta costante di dati personali permette alle piattaforme di individuare i gusti e le fragilità di ogni persona.
Gli algoritmi, ignari dei danni che possono provocare, somministrano contenuti personalizzati a ciascun utente allo scopo di tenerlo incollato allo schermo per monetizzare ogni secondo della sua attenzione.
È stata Shoshana Zuboff (Il capitalismo della sorveglianza, Luiss University Press, 2019) a descrivere nel modo più efficace la strategia delle piattaforme che si appropriano dell’esperienza umana e la trasformano nella materia prima (gratuita) che consente loro di predire e modificare il comportamento degli utenti, una merce preziosa per i pubblicitari.
Zuboff chiama questa abilità “architettura globale di modificazione dei comportamenti”.
L’obiettivo occulto
Ora la sentenza californiana rende esplicita questa contraddizione, di cui decine di giuristi discutono da anni.
Il cuore del problema è semplice: un farmaco, prima di essere commercializzato, deve superare anni di sperimentazione clinica, ottenere l’approvazione dell’EMA in Europa o della FDA negli Stati Uniti, riportare sulle confezioni la lista degli effetti collaterali, essere monitorato dopo l’immissione in commercio.
Un’automobile deve rispettare standard di sicurezza certificati, superare crash-test, avere cinture di sicurezza omologate e così via. Ogni alimento deve rispettare norme igieniche e dichiarare gli ingredienti sull’etichetta.
Al contrario, un algoritmo progettato per massimizzare la dipendenza psicologica di milioni di bambini non ha bisogno di nulla di tutto questo. Può essere lanciato liberamente sul mercato, entrare nel cellulare di miliardi di utenti e sarà giudicato - se mai lo sarà - solo a posteriori, in un’aula di tribunale, quando si potrà dimostrare quali danni sono stati prodotti.
Il giurista Frank Pasquale notava già nel 2015 (The Black Box Society) come le grandi piattaforme, che esercitano un potere enorme sulla vita di miliardi di persone, operino attraverso sistemi opachi che sfuggono a qualsiasi controllo esterno. Secondo Pasquale questa opacità è una scelta precisa: la natura proprietaria degli algoritmi limita la comprensione del loro funzionamento, e la velocità con cui evolvono consente di dribblare qualsiasi sforzo legislativo.
Chi si oppone a un’eccessiva intrusione da parte degli organismi pubblici fa notare che si tratta di un argomento scivoloso.
Gli algoritmi possono essere opachi persino ai loro stessi progettisti. Spesso i sistemi di machine learning non sono in grado di spiegare perché determinati risultati vengono prodotti. Regolare un sistema che nessuno comprende fino in fondo è un’impresa complessa. Ma la complessità tecnica non può essere usata come schermo per eludere la responsabilità penale.
In Europa il Digital Services Act, in vigore dal 2022, impone alle grandi piattaforme di valutare i rischi degli algoritmi, di consentire audit indipendenti, di spiegare agli utenti la logica delle raccomandazioni.
Ma dopo un lungo braccio di ferro con le lobby di Bruxelles, la governance degli algoritmi è stata lasciata nelle mani delle piattaforme: sono loro a decidere se gli algoritmi da loro progettati possono essere dannosi, un circolo vizioso che non sta portando a grandi risultati.
Per superare questa contraddizione gli studiosi stanno mettendo a punto alcune proposte concrete.
La prima prevede che un’agenzia pubblica indipendente certifichi, prima del lancio, la sicurezza di ogni algoritmo, specie se coinvolge minori, così come il Ministero della Sanità certifica la sicurezza di un farmaco.
La seconda stabilisce che chi progetta un prodotto che crea dipendenza risponda civilmente e penalmente dei danni provocati. In questo caso la norma agisce dopo, quando il danno è stato prodotto. La giuria californiana ha riconosciuto questo principio per via giudiziaria; il passo successivo è codificarlo per legge.
Se ne discute da anni e il fatto che in Europa fino a oggi non si sia arrivati a un risultato accettabile dipende soprattutto dalle pressioni esercitate dalle lobby.
Come le sigarette
Il fatto che le piattaforme tecnologiche siano ormai più potenti degli Stati ha conseguenze molto importanti.
La Commissione ha più volte ammesso di non aver proceduto a proporre soluzioni più radicali perché le piattaforme hanno fornito feedback negativi nelle consultazioni.
La loro prima barriera difensiva è che regole troppo rigide rallenterebbero l’innovazione.
La seconda è più sottile. Secondo le piattaforme se si mette in discussione il design degli algoritmi si deve suggerire un design alternativo perché il modello di business continui a stare in piedi.
Sostengono che un design “più sicuro” degli algoritmi sarebbe meno efficace: se si sostituisse lo scroll infinito con uno scroll “finito” non si riuscirebbe a trattenere l’utente su sito. Come si può imporre per legge una strategia industriale che intacca in modo profondo la redditività delle aziende?
Questo ricalca in modo sostanziale l’obiezione che per decenni fu usata dall’industria del tabacco che – mentre negava la nocività delle sigarette - sosteneva che apportando certe modifiche ai suoi prodotti si riducevano vendite e profitti.
Fu necessario dimostrare che il fumo provoca il cancro – e far emergere che i dirigenti delle multinazionali del settore ne erano consapevoli - per superare queste obiezioni.
Fino a oggi quando si parlava di responsabilità penale ci si riferiva a prodotti materiali: un’auto difettosa, un motore di aereo mal progettato, un’impalcatura insicura e così via.
La corte californiana ha implicitamente dichiarato che una piattaforma consapevole dei danni che i suoi algoritmi provocano agli adolescenti - come le email interne di META dimostrano e come Mark Zuckerberg ha dovuto ammettere - e che non interviene, si trova in una posizione simile a quella dell’ingegnere che installa strutture non a norma.
Un articolo molto citato, pubblicato nel 2025 dalla Columbia Law Review (Sabriyya Pate, Platform Liability for Platform Manipulation), suggerisce di introdurre il reato di “negligenza nel design delle piattaforme” che renderebbe le società dei social media responsabili dei danni provocati agli utenti. Ma per ora si tratta di esercitazioni di giuristi che non riescono a trasformarsi in leggi.
La forza delle lobby
È la stessa Commissione europea ad ammettere che i ritardi nel legiferare sul comportamento delle piattaforme sono legati all’azione delle lobby.
Tra l’ottobre 2021 e il gennaio 2022 la Commissione avviò una consultazione su una “Direttiva sulla Responsabilità per l’intelligenza artificiale” che proponeva un meccanismo definito “inversione della prova”: prevedeva che fossero le piattaforme a dimostrare di non avere danneggiato gli utenti, anziché viceversa.
Le organizzazioni dei consumatori e le istituzioni accademiche consultate avevano approvato in modo schiacciante la direttiva. L’unica posizione contraria fu quella delle piattaforme.
In un documento depositato il 28 settembre 2022 su EUR-Lex, si può leggere che, a proposito “dell’inversione dell’onere della prova (…) le imprese hanno fornito un feedback negativo nelle consultazioni”. Risultato: nell’ottobre 2025 la Commissione ha ritirato la Direttiva in “assenza di un accordo” con le imprese.
Questo esempio la dice lunga su dove pende il rapporto di forze tra istituzioni e piattaforme. D’altra parte non c’è da stupirsi.
I partiti politici (sia negli Stati Uniti sia in Europa) si sono volentieri liberati dal fardello di lottare contro aziende che ormai gestiscono l’informazione e la comunicazione.
Hanno delegato il problema a un’istituzione internazionale (la Commissione) senza creare consapevolezza tra i cittadini sui danni che i monopoli digitali stanno creando alla nostra vita sociale, culturale, politica; persino alla nostra salute.
Non è un caso che un’indicazione sia arrivata da un organismo indipendente dalla politica: una giuria californiana. Speriamo che serva.










."...contenuti personalizzati a ciascun utente allo scopo di tenerlo incollato allo schermo... ogni secondo della sua attenzione..." Esattamente come mi succede con Appunti. Articoli, interviste, video e passo ore davanti allo schermo. Meno male che sono in pensione. Eheheh almeno non si rimbecilisce.
Complimenti, ottime argomentazioni! Purtroppo (come ho già scritto in altra occasione) gli studi scientifici non stanno allo stesso passo della sentenza del tribunale californiano. Infatti, alcuni ricercatori sostengono, su autorevoli riviste, che non esistono prove scientifiche sul danno dei social media alla salute mentale. Questa idea è spesso ripresa dai giornali e in rete, dando così credito a quanto ha detto Zuckerberg per discolparsi ("se le persone non si sentono a proprio agio, perché dovrebbero continuare a usare il prodotto?") Ma le prove scientifiche ci sono, come faccio vedere in mauriziopugno.substack.com