I lettori si fidano meno quando sanno che un articolo è frutto anche dell'uso di AI. Forse la sostituzione degli esseri umani con gli algoritmi non è così semplice
"Non si fidano dell'AI" ... per ora. Ma la forza manipolatrice dei sistemi di comunicazione potrebbe cambiare la percezione dell'opinione pubblica, non lo possiamo escludere. Anzi potremmo ritenerlo probabile. Potrebbe essere una domanda da fare ad un sistema di AI. Che ne dite?
Non capisco come possa un giornalista, dico uno vero no quelli delle fanzine di partito tipo... (beh si sa chi sono), ad avvalersi DELL'IA. Se scrive del suo pensiero, del suo punto di vista, della sua professionalità che c'incastra l'artificiale, questo non lo capisco, forse come correttore di bozze. Ecco come correzione degli errori formali lo capisco.
"Ridurre lo sforzo cognitivo": è lì il problema, secondo me. Già il livello medio è basso (lo dico da docente); se continuiamo ad abbassare, invece di spronare verso l'alto...macchina o umano, meccanismo o organismo (per citare Ferraris) farà poca differenza.
C'è poco da fare: la vera differenza la fa la cultura. Il pensare. Lo sforzo cognitivo, per l'appunto.
In sostanza i contenuti prodotti da noi sono costati tempo, fatica, problemi, rischi. La AI sforna contenuto a raffica, inflazionandone il valore, senza costi apparenti (se non energia, acqua ad alti costi ambientali che sono "lontani" dal nostro sentire) e noi lo percepiamo.
Se non è costato nulla in termini di fatica, sudore, vita, non ha un reale valore se non astratto, immateriale, di second'ordine.
Chissà, forse tra un po' parleremo degli scritti totalmente umani come il pizzo fatto con il tombolo: "Bellissimo! Che fascino rispetto quelli fatti a macchina!", però nessuno li compera...
Da utilizzatore di AI ed ex giornalista disincantato, mi fido più della AI che di buona parte dei giornalisti odierni. Soprattutto per la sintassi migliore. Per attendibilità e imparzialità purtroppo c'è poco da fare invece
Diciamo soprattutto che il punto è saperla usare correttamente. Molti testi che mi arrivano da editare sono evidentemente scritti con la AI senza alcuna sistemazione, con prompt approssimativi ecc.
La mia paura più grande è che lettori già abituati alla sciatteria, non facciano minimamente caso a questi dettagli e che quindi, AI o no, si vada verso un tracollo della professione
Buongiorno, a mio parere le stesse aziende di intelligenza artificiale dovrebbero mettere più in risalto la necessità di controllare sempre gli output dei chatbot a causa dell'onnipresente possibilità che essi siano viziati dalle cosiddette allucinazioni, che attualmente costituiscono un problema strutturale per gli LLM, e in base a ricerche recenti sono anzi anche più frequenti nei più avanzati cosiddetti reasoning model
(fra i chatbot che ho finora utilizzato quello in cui questo rischio è maggiormente sottolineato, ma ancora in maniera secondo me insufficiente, è Claude della Anthropic).
L'educazione al confronto con le fonti, non solo in relazione all'utilizzo dell'intelligenza artificiale, a cui dovrebbero indirizzare anche la scuola e i media, potrebbe essere un prezioso strumento cognitivo per tutti, compresi molti giornalisti italiani e cosiddetti esperti in vari ambiti.
Ad esempio, nell’ambito del giornalismo medico italiano, ho trovato che finora solo la dott.ssa Roberta Villa ha ripreso studi autorevoli sui danni organici permanenti come il diabete e non solo (più rari rispetto ad altri tipi di conseguenze ma non per questo da passare sotto silenzio) che il Long Covid può comportare anche nei bambini, come il seguente
Una maggiore consuetudine dei giornalisti italiani con fonti affidabili li aiuterebbe a non basarsi solo sulle risposte degli esperti da loro intervistati (il fatto che alcuni specialisti vengano promossi al vertice degli enti medici dalla politica non è purtroppo garanzia di autorevolezza scientifica, come tristemente ci ricorda il caso della Regione Toscana che ha inserito l’omeopatia nella propria sanità pubblica), e a superare ad es. la situazione di misinformation che non solo a mio parere si è creata a proposito dei rischi tuttora presenti (e da cui nessuno in base alla ricerca può ritenersi immune) di contrarre il Long COVID, come ho cercato di documentare in
Anch'io uso a volte l'AI, restandkone sempee vagamente deluso, ma sinceramente mi chiedo: perché dovrei apprezzare, da lettore, sistemi che "possono stimolare la creatività, riducendo lo sforzo cognitivo nelle fasi iniziali del lavoro"? Perché un editore o un giornalista possa scrivere di più o più velocemente o con meno sforzo? Capisco il vantaggio per chi scrive e soprattutto per gli editori, non per me. Se uno chef stellato si facesse suggerire le ricette dall'AI farebbe sicuramente bene, non me ne accorgerei di certo, ma mi sentirei un poco preso in giro.
Siamo perfettamente d’accordo sul fatto che sarebbe utile che ci fosse una maggiore trasparenza. Potreste approfondire, spiegando -a chi, come me, non ne ha mai fatto uso- le fasi di un possibile utilizzo dell’AI nella redazione di un testo, magari step by step? Grazie.
"Non si fidano dell'AI" ... per ora. Ma la forza manipolatrice dei sistemi di comunicazione potrebbe cambiare la percezione dell'opinione pubblica, non lo possiamo escludere. Anzi potremmo ritenerlo probabile. Potrebbe essere una domanda da fare ad un sistema di AI. Che ne dite?
Non capisco come possa un giornalista, dico uno vero no quelli delle fanzine di partito tipo... (beh si sa chi sono), ad avvalersi DELL'IA. Se scrive del suo pensiero, del suo punto di vista, della sua professionalità che c'incastra l'artificiale, questo non lo capisco, forse come correttore di bozze. Ecco come correzione degli errori formali lo capisco.
"Ridurre lo sforzo cognitivo": è lì il problema, secondo me. Già il livello medio è basso (lo dico da docente); se continuiamo ad abbassare, invece di spronare verso l'alto...macchina o umano, meccanismo o organismo (per citare Ferraris) farà poca differenza.
C'è poco da fare: la vera differenza la fa la cultura. Il pensare. Lo sforzo cognitivo, per l'appunto.
Grazie e buon lavoro.
Proprio ieri ho trovato una bella spiegazione, chiara, del perchè abbiamo questo atteggiamento nei confronti dei contenuti generativi, qui: https://sublime.app/card/why-we-want-robots-at-work-but-humans-in-artwe-hat
In sostanza i contenuti prodotti da noi sono costati tempo, fatica, problemi, rischi. La AI sforna contenuto a raffica, inflazionandone il valore, senza costi apparenti (se non energia, acqua ad alti costi ambientali che sono "lontani" dal nostro sentire) e noi lo percepiamo.
Se non è costato nulla in termini di fatica, sudore, vita, non ha un reale valore se non astratto, immateriale, di second'ordine.
Chissà, forse tra un po' parleremo degli scritti totalmente umani come il pizzo fatto con il tombolo: "Bellissimo! Che fascino rispetto quelli fatti a macchina!", però nessuno li compera...
spero di no, l'uomo che usa lo strumento con la sua sensibilità e intelligenza si vedrà sempre o almeno per molto tempo ancora
Da utilizzatore di AI ed ex giornalista disincantato, mi fido più della AI che di buona parte dei giornalisti odierni. Soprattutto per la sintassi migliore. Per attendibilità e imparzialità purtroppo c'è poco da fare invece
Dipende per quali mansioni, come in tanti altri ambiti dell’automazione, per le mansioni rutinarie dove serve precisione, meglio AI
Va tuttavia fatta una distinzione fra i sistemi di automazione che si basano su algoritmi deterministici, che includono la symbolic artificial intelligence https://en.wikipedia.org/wiki/Symbolic_artificial_intelligence prevalente fino a pochi lustri fa, e le forme di AI come gli LLM basate su architetture connessioniste https://en.wikipedia.org/wiki/Connectionism , che da una parte sono le uniche attualmente in grado di produrre testi di qualità accettabile, ma dall'altra presentano (allo stato attuale della ricerca) il problema strutturale delle allucinazioni. Va quindi considerato che ogni contenuto prodotto da un LLM deve essere controllato da un esperto umano con il confronto con le fonti (a tal proposito è rilevante l'articolo da me già citato https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html?unlocked_article_code=1.Sk8.YnyF.wT15K0bMyBb8&smid=url-share ).
Diciamo soprattutto che il punto è saperla usare correttamente. Molti testi che mi arrivano da editare sono evidentemente scritti con la AI senza alcuna sistemazione, con prompt approssimativi ecc.
La mia paura più grande è che lettori già abituati alla sciatteria, non facciano minimamente caso a questi dettagli e che quindi, AI o no, si vada verso un tracollo della professione
Vedo più probabile un tracollo -già in atto- dei lettori. Le statistiche relative alla capacità di comprendere un testo sono inquietanti…
Per lamia esperienza con gli studenti, sono peggio i testi scritti senza AI
Buongiorno, a mio parere le stesse aziende di intelligenza artificiale dovrebbero mettere più in risalto la necessità di controllare sempre gli output dei chatbot a causa dell'onnipresente possibilità che essi siano viziati dalle cosiddette allucinazioni, che attualmente costituiscono un problema strutturale per gli LLM, e in base a ricerche recenti sono anzi anche più frequenti nei più avanzati cosiddetti reasoning model
https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html?unlocked_article_code=1.Sk8.YnyF.wT15K0bMyBb8&smid=url-share
(fra i chatbot che ho finora utilizzato quello in cui questo rischio è maggiormente sottolineato, ma ancora in maniera secondo me insufficiente, è Claude della Anthropic).
L'educazione al confronto con le fonti, non solo in relazione all'utilizzo dell'intelligenza artificiale, a cui dovrebbero indirizzare anche la scuola e i media, potrebbe essere un prezioso strumento cognitivo per tutti, compresi molti giornalisti italiani e cosiddetti esperti in vari ambiti.
Ad esempio, nell’ambito del giornalismo medico italiano, ho trovato che finora solo la dott.ssa Roberta Villa ha ripreso studi autorevoli sui danni organici permanenti come il diabete e non solo (più rari rispetto ad altri tipi di conseguenze ma non per questo da passare sotto silenzio) che il Long Covid può comportare anche nei bambini, come il seguente
https://publications.aap.org/pediatrics/article/153/3/e2023062570/196606/Postacute-Sequelae-of-SARS-CoV-2-in-Children?autologincheck=redirected
https://robertavilla.substack.com/p/18-long-covid-e-un-iceberg-anche
( studio che all’estero è stato riportato ad es. sul New York Times https://www.nytimes.com/2024/02/07/well/live/long-covid-children.html?unlocked_article_code=1.Sk8.enAX.QN29ln7THR1b&smid=url-share ).
Una maggiore consuetudine dei giornalisti italiani con fonti affidabili li aiuterebbe a non basarsi solo sulle risposte degli esperti da loro intervistati (il fatto che alcuni specialisti vengano promossi al vertice degli enti medici dalla politica non è purtroppo garanzia di autorevolezza scientifica, come tristemente ci ricorda il caso della Regione Toscana che ha inserito l’omeopatia nella propria sanità pubblica), e a superare ad es. la situazione di misinformation che non solo a mio parere si è creata a proposito dei rischi tuttora presenti (e da cui nessuno in base alla ricerca può ritenersi immune) di contrarre il Long COVID, come ho cercato di documentare in
https://appunti.substack.com/p/vi-ricordate-il-covid/comments .
Anch'io uso a volte l'AI, restandkone sempee vagamente deluso, ma sinceramente mi chiedo: perché dovrei apprezzare, da lettore, sistemi che "possono stimolare la creatività, riducendo lo sforzo cognitivo nelle fasi iniziali del lavoro"? Perché un editore o un giornalista possa scrivere di più o più velocemente o con meno sforzo? Capisco il vantaggio per chi scrive e soprattutto per gli editori, non per me. Se uno chef stellato si facesse suggerire le ricette dall'AI farebbe sicuramente bene, non me ne accorgerei di certo, ma mi sentirei un poco preso in giro.
Però anche gli chef stellati hanno gli aiutanti in cucina ;-)
Ma spero non siano loro a suggerire le ricette al Cannavacciuolo di turno :)
Tutto molto interessante, ma il link che porta allo studio dell’Università del Kansas non funziona. È possibile fornirne uno alternativo? Grazie!
A me sembra funzionare, rimanda all'Università del Kansas. In ogni caso lo incollo di nuovo qui: https://news.ku.edu/news/article/study-finds-readers-trust-news-less-when-ai-is-involved-even-when-they-dont-understand-to-what-extent?utm_source=chatgpt.com)
Siamo perfettamente d’accordo sul fatto che sarebbe utile che ci fosse una maggiore trasparenza. Potreste approfondire, spiegando -a chi, come me, non ne ha mai fatto uso- le fasi di un possibile utilizzo dell’AI nella redazione di un testo, magari step by step? Grazie.
Lo faremo senz'altro in un prossimo articolo che dedicheremo a questo argomento. Grazie!
Interessante, grazie!