Si può scegliere se essere intelligenti, cogliere i nessi tra le cose, oppure non pensare e lasciar decidere altri. Se costruire la pace o dare il via a una guerra. Si può persino scegliere di rinunciare all’etica, ma ciò significherebbe scegliere di non essere più umani. Quando si parla di intelligenza artificiale, tema scelto da papa Francesco per la Giornata della Pace 2024, si scende su un terreno scivoloso e ancora poco chiaro. Abbiamo parlato con Luca Nenni, docente di informatica al Liceo Torricelli Ballardini di Faenza, di come questi sistemi possano migliorare o peggiorare la vita di ciascuno e di cosa ci sia dietro ogni macchina. E abbiamo scoperto che a premere i bottoni siamo proprio noi.

Intervista al prof. Luca Nenni (liceo Torricelli-Ballardini)
Prof Nenni, oggi in cosa consistono esattamente i sistemi di intelligenza artificiale?
Quella che abbiamo a disposizione, la branca su cui si basano gli strumenti più noti come Chat Gpt, oggi è statistica portata alla massima potenza. Anche i generatori di immagini sono basati su modelli statistici, sono addestrati su dati che vengono inseriti al loro interno, lavorando sulla probabilità. Non hanno una vera e propria intelligenza, elaborano dati in una maniera che ci sembra intelligente. Forse dobbiamo ripensare a come noi apprendiamo. L’AI vera, quella autocosciente, è al momento ancora fantascienza anche se è già oggetto di studio. In alcuni casi, ad esempio, si parla già di alimentare i sistemi con dati non reali, ma “confezionati”, cioè realizzati per ottenere quel che si vuole. Alla base c’è sempre la nostra volontà. Si parla ultimamente di alimentare l’AI con dati generati dall’AI stessa, ma ciò causa alcune allucinazioni: si crea un circolo in cui si perde il contatto con la realtà e ci si ritrova in una realtà virtuale.
Quali sono i rischi e le potenzialità?
Alcune cose sono molto interessanti, come l’analisi delle immagini, ma ci sono sempre pro e contro. Le app per riconoscere monumenti ad esempio sono utili. Se pensiamo in campo sanitario a un sostegno per la diagnostica di immagini, questo potrebbe essere uno strumento utile nella misura in cui rimane a supporto del medico. Allo stesso tempo il rischio è quello di avere immagini che siano sempre più realistiche ma false e di cadere nel cosiddetto deep fake. Si possono generare dati falsi che impattano in modo più o meno pericoloso inficiando la reputazione della persona, ma persino la veridicità di una prova in tribunale. L’impressione – e il rischio – è che una notizia e un formato falso costino meno della prova necessaria per confutarli. Aspetti etici, giuridici ed economici non sempre trovano una quadra.
Le generazioni più anziane sono spaventate da questi sistemi. I ragazzi invece?
Qualcuno inizia a ragionare sulle criticità e sull’impatto che hanno sulla nostra vita. La prima reazione è sfruttare questi strumenti per trarne vantaggio facilitando i compiti. In questo senso non c’è nulla di nuovo. La differenza è che adesso i sistemi generano un contenuto già a modo loro originale. In informatica distinguere la scrittura di un codice generata in modo automatico da quello generato da una persona è più difficile. Se non fosse che a volte usa strategie che ancora magari non sono state spiegate… Penso che a scuola tutto si risolva parlandone. Ed è necessario farlo anche perché questi strumenti decideranno della vita delle persone in futuro e le nuove generazioni devono conoscerli per avere un pensiero critico su questo: la tecnica deve essere affiancata sempre dall’etica.
Qual è il nesso tra intelligenza artificiale ed etica?
Se parliamo anche di automazione (robotica) gli strumenti a volte tolgono all’uomo alcuni lavori e generano occupazioni specifiche. I lavori creativi sono al sicuro se si punta sulla qualità, ma oggi c’è la tendenza ad accontentarsi ad abituarsi a cose di valore minore per risparmiare. La sfida è proprio andar contro questa abitudine.
E sulla pace che impatti può avere?
Come sempre accade nelle scoperte tecnologiche, l’applicazione militare è una delle prime che l’uomo mette in campo. Anche la rete internet è nata per scopi bellici. Trovare un’applicazione pacifista dell’AI è più complesso, ma possibile. Tutto quel che riguarda immagini, ad esempio, può essere usato come strategia di pace e non di guerra. Si possono usare questi sistemi per risolvere problemi energetici e climatici, così da prevenire persino alcuni conflitti. Tutto ciò è l’uomo che deve deciderlo. La scelta spetta a lui.
Letizia Di Deco