Il giornalismo sopravviverà all’intelligenza artificiale?
I lettori si fidano meno quando sanno che un articolo è frutto anche dell'uso di AI. Forse la sostituzione degli esseri umani con gli algoritmi non è così semplice
I lettori non sono stupidi, sono a loro volta utilizzatori dei sistemi di intelligenza artificiale, e chiedono di non essere ingannati o di non dovere essere costretti a indovinare se una notizia è stata verificata e rielaborata da chi scrive o se è solo il meccanico risultato di un prompt di cui, almeno al momento, non si fidano
Laura Turini
Nonostante tutti i timori di chi lavora nel settore, il giornalismo sembra destinato a sopravvivere all’intelligenza artificiale, almeno per ora.
Il blog di Anthropic, Claude Explains, nato per pubblicare articoli tecnici, scientifici e culturali generati con l’intelligenza artificiale, ha chiuso i battenti dopo poche settimane di vita facendo parlare di sé, in senso tendenzialmente negativo, su molti social.
Nonostante funzionasse benissimo dal punto di vista SEO (search engine optimization), raccogliendo numerosi link, non è stato apprezzato dagli utenti che se, da un lato, hanno valutato positivamente l’iniziativa come un esempio di collaborazione uomo-macchina, hanno criticato la scelta di non evidenziare in chiaro la parte generata dall’intelligenza artificiale.
Oltre alla mancanza di trasparenza nel distinguere la parte generata dall’AI da quella curata da un essere umano, uno dei motivi della repentina chiusura sarebbe stata la crescente preoccupazione di Anthropic per potenziali imprecisioni nei testi e in particolare per le “allucinazioni”, che rischiavano di far fare brutte figure al colosso dell’AI.
La chiusura di Explains, secondo molti, ha confermato ancora una volta che i lettori si fidano meno quando leggono notizie create elaborate con l’aiuto dell’intelligenza artificiale.
Questo dato non è nuovo ed è emerso in particolare in uno studio della University of Kansas del 2024, da cui si evince che i lettori credono meno alle notizie che sanno essere state in qualche modo prodotte con l’AI, pur non conoscendo esattamente in quale modo sia stata usata.
La ricerca dimostra che se da un lato c’è una sorta di visione negativa dell’uso dell’intelligenza artificiale nel settore giornalistico, dall’altro i lettori hanno un enorme bisogno di essere correttamente informati della funzione che l’AI svolge nella redazione dei testi. In assenza di una tale chiarezza gli utenti sono portati ad abbandonare la lettura anche se la tecnologia ha svolto un ruolo marginale.
Alyssa Appelman e Steve Bien-Aimé, docenti alla William Allen White School of Journalism & Mass Communications di Lawrence, Kansas, hanno messo a punto un esperimento nel corso del quale hanno fornito ai partecipanti lo stesso identico articolo sull’aspartame firmato però in modo diverso, come “redattore”, “redattore con utilizzo dell’intelligenza artificiale”, “redattore assistito dall’intelligenza artificiale”, “redattore in collaborazione con l’intelligenza artificiale” e “generato dall’intelligenza artificiale”.
Alla fine sono state poste ai lettori una serie di domande in merito alla credibilità del contenuto e a quale fosse secondo loro l’apporto dell’intelligenza artificiale.
La maggior parte dei partecipanti era convinta che l’intervento umano fosse predominante e che il supporto dell’AI fosse limitato alla fase iniziale di generazione della bozza, mentre quando veniva esplicitamente menzionato l’utilizzo dell’intelligenza artificiale, i lettori tendevano a valutare come meno affidabili sia l’autore sia la fonte dell’articolo.
Curiosamente, anche quando la firma riportava solo “redattore”, l’assenza di un nome specifico induceva a sospettare comunque che l’IA fosse stata massicciamente usata nel processo di scrittura.
In sostanza, indipendentemente dall’effettivo coinvolgimento dell’intelligenza artificiale, il semplice supporre il suo utilizzo indurrebbe i lettori a valutare le notizie come meno attendibili.
Nel corso dell’esperimento è stato anche chiesto ai partecipanti di indicare quale fosse, secondo loro, la percentuale di testo prodotta dall’AI ed è emerso che più alta era questa percentuale, più bassa era la fiducia nella notizia.
Bien-Aimé in un’intervista ha dichiarato: «Il punto cruciale non è la contrapposizione tra uomo e macchina, ma quanto lavoro si ritiene che abbia svolto un essere umano. Questo dimostra che dobbiamo essere più chiari».
Nel giornalismo, storicamente connesso alla creatività e al giudizio umano, la presenza della tecnologia può generare diffidenza, ma chi scrive adesso ha un compito ulteriore rispetto a quello di informare. I lettori sanno che possono essere usati sistemi di intelligenza artificiale e devono essere messi in condizione di comprendere esattamente cosa significhi in concreto e quale sia l’apporto umano. Dare per presupposta questa conoscenza è sbagliato e rischia di avere come effetto una fuga dalle notizie “sospette”.
Strumenti come ChatGPT, Jasper o Sudowrite vengono usati per suggerire titoli, bozze e idee di articoli e assistenti come Ember, utilizzato dal Washington Post, aiutano gli autori non professionisti a strutturare contributi editoriali.
Questi sistemi possono stimolare la creatività, riducendo lo sforzo cognitivo nelle fasi iniziali del lavoro e difficilmente potranno essere ignorati dai giornalisti che possono utilizzarli senza nulla togliere al valore intellettuale e creativo del proprio lavoro.
L’obiettivo prospettico è smettere di tacere e palesare apertamente il tipo di uso che se ne fa. Dichiarare di essersi avvalsi dell’AI per scrivere un articolo non sarà sufficiente, occorrerà entrare nel dettaglio di come lo si è usato.
I lettori non sono stupidi, sono a loro volta utilizzatori dei sistemi di intelligenza artificiale, e chiedono di non essere ingannati o di non dovere essere costretti a indovinare se una notizia è stata verificata e rielaborata da chi scrive o se è solo il meccanico risultato di un prompt di cui, almeno al momento, non si fidano.
Ecco che la tecnologia ci impone nuovi comportamenti ma potrebbe anche darci la possibilità di ristabilire un rapporto diretto fiduciario tra chi legge e chi scrive, con effetti che potrebbero rivelarsi molto proficui e vantaggiosi ben oltre l’intelligenza artificiale.
PS: Per questo articolo non ho utilizzato ChatGPT, ma spesso lo uso per fare ricerche e preparare le prime bozze. Continuerò a farlo.
Da leggere su Appunti
Manovre in corso
Giorgia Meloni si avvia a entrare nella storia della politica italiana con uno dei governi più lunghi e con una stabilità che all’estero viene percepita come il vero risultato di questa stagione. Ma le elezioni 2027 possono inaugurare una nuova incertezza
Proprio ieri ho trovato una bella spiegazione, chiara, del perchè abbiamo questo atteggiamento nei confronti dei contenuti generativi, qui: https://sublime.app/card/why-we-want-robots-at-work-but-humans-in-artwe-hat
In sostanza i contenuti prodotti da noi sono costati tempo, fatica, problemi, rischi. La AI sforna contenuto a raffica, inflazionandone il valore, senza costi apparenti (se non energia, acqua ad alti costi ambientali che sono "lontani" dal nostro sentire) e noi lo percepiamo.
Se non è costato nulla in termini di fatica, sudore, vita, non ha un reale valore se non astratto, immateriale, di second'ordine.
"Ridurre lo sforzo cognitivo": è lì il problema, secondo me. Già il livello medio è basso (lo dico da docente); se continuiamo ad abbassare, invece di spronare verso l'alto...macchina o umano, meccanismo o organismo (per citare Ferraris) farà poca differenza.
C'è poco da fare: la vera differenza la fa la cultura. Il pensare. Lo sforzo cognitivo, per l'appunto.
Grazie e buon lavoro.