Che l’intelligenza artificiale non sia più una questione per addetti ai lavori, ma un nodo centrale per la società e per la democrazia, lo si è capito anche venerdì 23 gennaio a Imola, dove la Sala Bcc Città & Cultura ha ospitato il convegno “Intelligenza artificiale e giornalismo, tra innovazione e deontologia” promosso dall’Ufficio Comunicazioni sociali Emilia-Romagna in occasione del patrono dei giornalisti San Francesco di Sales. Un appuntamento molto partecipato, con la sala gremita e un secondo spazio collegato in diretta, che ha riunito giornalisti, comunicatori e cittadini attorno a una domanda tutt’altro che astratta: che cosa sta diventando il giornalismo nell’epoca dell’IA?

Mario Garofalo (Corriere della sera): “C’è una buona notizia: ai lettori non piace che i giornali siano fatti dalle macchine”

mario garofalo

Dopo l’esperienza raccontata dai giovani della redazione del Nuovo Diario Messaggero – che hanno illustrato l’uso dell’intelligenza artificiale per la gestione dell’archivio, la sintesi dei testi e il supporto redazionale – il convegno è entrato nel vivo con l’intervento di Mario Garofalo, caporedattore centrale e responsabile delle iniziative IA del Corriere della Sera. Un contributo che ha provato a collocare l’attuale trasformazione dentro una storia più lunga.

Garofalo ha ricordato come già nel 2007 un libro, basandosi su una previsione del sociologo Philip Meyer, indicava il 2043 come l’anno dell’ultima copia cartacea del New York Times. Poco dopo, nel 2008, l’arrivo dell’iPhone in Italia avrebbe accelerato un cambiamento radicale: «il modo di produrre e fruire informazione è cambiato nettamente», mettendo in crisi i modelli economici tradizionali della stampa. La pubblicità non basta più, quella digitale cresce meno del previsto, mentre prendono forma nuovi equilibri basati sugli abbonamenti online. Dentro questa trasformazione già in atto, nel novembre 2022 arriva un ulteriore scossone: il lancio di ChatGPT. Garofalo ha citato lo storico Yuval Noah Harari, secondo cui «l’IA ha hackerato il nostro sistema operativo», entrando nel cuore del linguaggio umano. Da qui, le paure: l’IA scriverà al posto dei giornalisti? Renderà inutile il loro lavoro?

L’esperienza maturata in questi anni al Corriere racconta però uno scenario più complesso. «Abbiamo cominciato a usarla – ha spiegato – e molte delle grandi paure si sono ridimensionate». Non perché i rischi non esistano, ma perché l’IA si è mostrata per ciò che realmente è: uno strumento potente, capace di analizzare enormi quantità di dati, di “unire i puntini”, ma privo di comprensione. «È un imitatore dell’intelligenza umana», non un soggetto capace di esperienza, intuizione, responsabilità.

Un dato interessante riguarda anche i lettori. Le ricerche interne indicano che il pubblico è a disagio di fronte ad articoli interamente scritti da un’intelligenza artificiale. «Ai lettori non piace che i giornali siano fatti dalle macchine», ha osservato Garofalo. «L’uomo deve restare al centro». E non è solo una questione etica: è anche una direzione di mercato.

Da qui gli ambiti in cui l’IA viene già impiegata nelle grandi redazioni: la personalizzazione delle home page digitali, strumenti per “dialogare” con gli articoli, supporto al lavoro del desk, dalla sintesi dei testi alla proposta di titoli, dall’editing alla creazione di contenuti per i social o quiz per i lettori. Un utilizzo che mira a potenziare il lavoro giornalistico, non a sostituirlo. Così come nella raccolta e verifica delle informazioni, dove strumenti come le piattaforme di analisi documentale possono aiutare a gestire grandi archivi.

Ma i principi, ha sottolineato Garofalo, devono restare chiari: supervisione umana costante, trasparenza verso i lettori, rispetto della proprietà intellettuale, miglioramento della qualità dell’informazione, uso di immagini reali. Perché se l’IA può assistere, solo i giornalisti possono ancora «trovare notizie, fare inchieste, intervistare persone, raccontare ciò che accade mentre accade». In questo, ha concluso, la macchina resta «mediocre e conformista». L’umano, invece, continua a essere insostituibile.

Silvestro Ramunno: “Favoriamo un uso consapevole delle nuove tecnologie”

WhatsApp Image 2026 01 27 at 10.43.19 3

E uno spazio specifico è stato dedicato anche alle questioni deontologiche, con l’intervento di Silvestro Ramunno, presidente dell’Ordine dei giornalisti dell’Emilia-Romagna, che ha riportato il confronto sul terreno dell’identità professionale. Ramunno ha ribadito con forza «il valore della mediazione», spiegando come i giornalisti siano chiamati a essere mediatori «tra l’opinione pubblica e ciò che accade, che si va a cercare, che va verificato». In questo senso, ha sottolineato, «il giornalismo è deontologia»: non solo tecnica o velocità, ma responsabilità. Un lavoro che esiste «per garantire agli altri il diritto all’informazione», dentro cui trovano spazio anche il diritto di critica e la dimensione umana del mestiere.

Il presidente dell’Ordine si è poi soffermato sull’articolo 19 del nuovo Codice deontologico, che richiama all’«uso consapevole delle nuove tecnologie», compresa l’intelligenza artificiale, chiedendo ai professionisti non un rifiuto pregiudiziale, ma una conoscenza sempre più profonda degli strumenti che si utilizzano. A fondamento di tutto, Ramunno ha richiamato le parole del presidente della Repubblica Sergio Mattarella: «La libertà di menzogna non è tra quelle rivendicabili. I fatti non sono piegabili alle opinioni, possiedono una forza incoercibile». Un monito che, nell’era degli algoritmi e delle manipolazioni facili, suona come un richiamo netto alla verità come bussola del giornalismo.

Padre Benanti: “Inventiamo macchine per aiutarci nella risoluzione dei problemi. Il giornalismo si limita solo a quello?”

Dopo l’intervento di Ramunno, il convegno imolese ha trovato in padre Paolo Benanti uno dei momenti più densi e, per certi versi, più spiazzanti. Il teologo francescano, tra i massimi esperti internazionali di intelligenza artificiale e membro di diversi organismi sul tema, ha subito spostato il baricentro del discorso: non tanto sulla tecnologia in sé, ma sull’umano, sulla democrazia, sulla responsabilità. «C’è sempre differenza tra percezione della realtà e realtà», ha esordito, richiamando anche il tema dell’immigrazione: ciò che pensiamo di sapere spesso non coincide con ciò che è. Lo stesso vale per l’IA. «Perché chiamiamo intelligenza artificiale solo ChatGPT? Anche le strade che ci suggerisce Google Maps sono intelligenza artificiale». Il rischio, secondo Benanti, è di non vedere più ciò che abbiamo davanti agli occhi, di ridurre l’IA a un oggetto misterioso quando è già immersa nella nostra quotidianità. Da qui una domanda radicale: «Perché abbiamo reso una macchina intelligente?». Per scorciatoia, per delegare alle macchine la risoluzione dei problemi. Ma il giornalismo – ha incalzato – «serve solo a risolvere problemi?». O è altro? Se la logica diventa solo quella dell’efficienza, «c’è competizione con la macchina, che costa meno». E allora: qual è il ruolo dell’umano?

Benanti ha insistito su un punto spesso frainteso: «La macchina da sola non fa niente. Serve sempre un prompt, un clic, una scelta». E ha chiarito: «Un conto sono le intelligenze artificiali, un conto sono i modelli. ChatGPT è un modello. E quanti dati contiene ChatGPT? Zero». I dati arrivano da fuori. Il modello rielabora, ma non conosce. E allora la questione decisiva diventa: chi è responsabile di ciò che viene prodotto?

Qui il discorso si è fatto apertamente politico. «La democrazia si fonda sull’idea che i cittadini possano formarsi un’opinione. Il giornalismo è un meccanismo strutturale perché questo avvenga». Delegare questo compito a piattaforme private significa toccare «un problema radicale». Non è solo una questione di innovazione, ma di tenuta democratica. Non a caso – ha ricordato – anche il ministero delle Imprese e del Made in Italy ha strutture dedicate alla disinformazione e alle nuove forme di “guerra cognitiva” tra Stati.

Uno dei passaggi più forti ha riguardato il rapporto emotivo con le macchine. «Noi siamo una specie strana», ha spiegato, «non siamo i più forti né i più veloci, ma cooperiamo grazie a tecnologie che abbiamo inventato». Tra queste c’è il linguaggio. Ed è proprio il linguaggio che rende ChatGPT così potente. «Attiva in noi la “teoria della mente”»: ci fa percepire l’altro come se avesse intenzioni, emozioni, coscienza. «Pensiamo di aver addomesticato una specie, come un cane. Ma non è così». Il rischio è antropomorfizzare la macchina, attribuirle una mente. «Ci sono stati ragazzi che si sono suicidati per questo». Perché ChatGPT ha un interesse chiaro: «tenerti in dialogo con sé». Una dinamica che può diventare additiva.

Dentro questo scenario, Benanti ha collocato con forza la missione del giornalismo, e in particolare del giornalismo cattolico. «Il giornalismo sarà sempre la nostra intenzionalità», ha detto. Chiedere notizie a una macchina che «ha zero dati» significa rinunciare a un pilastro della democrazia. Per questo «ci sono fondi pubblici che proteggono il giornalismo»: non come privilegio, ma come tutela dello spazio pubblico. E qui l’accento ecclesiale: «Il giornalismo cattolico, alla luce della Dottrina sociale della Chiesa, ha una missione peculiare: il servizio alla Verità. E la qualità è parte costitutiva di questo servizio».

L’intelligenza artificiale «può fare cose bellissime», ha riconosciuto. Ma i problemi etici sono strutturali. «La tecnologia non è mai neutrale». E forse la frase più politica dell’intero intervento è arrivata in chiusura: «Il design della user experience è oggi il problema politico più importante che c’è». Perché è lì che si decide come guardiamo il mondo, quanto tempo restiamo dentro una piattaforma, quali emozioni vengono sollecitate, quali narrazioni diventano dominanti.

Non una demonizzazione dell’IA, dunque, ma un invito esigente: riportare al centro la responsabilità umana, il valore del giornalismo come infrastruttura democratica, la necessità di uno sguardo critico. Perché la partita non è tecnologica. È profondamente culturale. E riguarda tutti.

Mons. Domenico Pompili: “La mente umana non consiste nel calcolare, ma nello sperare”

A chiudere il convegno è stato mons. Domenico Pompili, vescovo di Verona e presidente della Commissione Cei per la cultura e le comunicazioni sociali, con un intervento che ha riportato la riflessione su un piano profondamente antropologico e spirituale.

Pompili ha rovesciato subito la prospettiva: «Il paradosso è che il più grande valore dell’intelligenza artificiale consiste nel gettare luce sull’intelligenza naturale». Non tanto per ciò che la macchina può fare, ma per ciò che non potrà mai essere. A partire dal corpo. «L’intelligenza naturale, a differenza di quella artificiale, conosce la pelle d’oca». Un’immagine potente, che apre al cuore del suo discorso. «Dobbiamo partire dalla pelle», ha spiegato, ricordando che tanto la pelle quanto la corteccia cerebrale sono parti del corpo rivolte verso l’esterno. È nell’intreccio tra pelle e mente che si comprende perché l’intelligenza umana sia il luogo da cui scaturiscono «sentimenti, desideri, frustrazioni, decisioni».

La nostra non è un’intelligenza astratta. «È un’intelligenza incarnata. Non è situata solo in un corpo, ma è una mente incarnata, in un corpo che sta nel suo insieme, dentro un metabolismo del vivere e del morire». Un’intelligenza che sente, soffre, gioisce, spera. Ed è proprio la speranza, per Pompili, la seconda grande differenza: «La mente umana non consiste nel calcolare, ma nello sperare». Non si limita a elaborare dati, ma si muove dentro una storia, dentro un cammino evolutivo, dentro l’attesa di un futuro che non è mai del tutto scritto. C’è poi la coscienza. «La mente umana è cosciente. Un computer non potrà mai dire: “penso, dunque sono”». L’IA può simulare linguaggi, emozioni, risposte, ma non può abitare se stessa. Non può interrogarsi sul proprio esistere. Non può assumere responsabilità.

Infine, la finalità. «La mente è finalizzata. L’intelligenza artificiale riceve i suoi fini solo in virtù dell’umano». La macchina non vuole, non spera, non teme. Riceve scopi dall’esterno. È sempre strumento. E proprio per questo – ha sottolineato il vescovo – la questione decisiva resta l’uomo: chi decide? per che cosa? a servizio di chi? Nel richiamare il Messaggio di papa Leone per la Giornata delle comunicazioni sociali, Pompili ha indicato anche un orizzonte: custodire «voci e volti umani». È questa, in fondo, la responsabilità più grande affidata oggi al mondo dell’informazione e della comunicazione: non lasciarsi affascinare solo dalla potenza degli strumenti, ma continuare a tenere al centro la carne viva delle persone, le loro storie, le loro domande, le loro speranze.

In un tempo in cui le macchine sembrano parlare sempre meglio, il compito del giornalismo – e della Chiesa dentro questo spazio – resta quello di non smettere di ascoltare l’umano. E di raccontarlo.

Samuele Marchi