In questi giorni in cui stanno parlando le armi – sempre un brutto segno! – una vicenda capitata di recente negli Stati Uniti, ci segnala la pericolosità di oltrepassare il confine tra autoritarismo e stato di diritto. Fabio Sabatini sulla newsletter Substack del Corriere della Sera ha scritto alcune interessanti riflessioni sull’Intelligenza Artificiale e le sue ricadute, così come hanno fatto i principali media mondiali.

Nei giorni scorsi il Segretario alla Guerra (una volta si chiamava alla Difesa, il desiderio di Trump di ottenere il Nobel per la Pace ha portato alla nuova definizione) americano Pete Hegseth ha designato Anthropic, una delle principali aziende di intelligenza artificiale fondata da due italo-americani: Dario Amodio e sua sorella Daniela, come supply chain risk, la definizione per le aziende sgradite alla amministrazione.

Donald Trump ha poi pubblicato su Truth un messaggio con cui ordina a ogni agenzia federale di cessare immediatamente l’uso dei prodotti Anthropic, minacciando “conseguenze civili e penali” e definendo l’azienda “di estrema sinistra e radicalmente woke” (accuse, ovviamente, prive di ogni fondamento).

Non si tratta di una disputa commerciale con sfumature ideologiche: è una storia sul modo in cui un regime autoritario gestisce il potere economico, disciplina il dissenso e prova a mettere le mani sugli strumenti che permettono la sorveglianza sistematica dei propri cittadini.

Anthropic ha rifiutato di fare due cose specifiche. La prima è permettere che Claude, il suo modello di intelligenza artificiale generativa, venga utilizzato per realizzare armi completamente autonome: sistemi che identificano i bersagli, decidono se colpire e agiscono senza intervento umano. La seconda è consentire l’uso di Claude per la sorveglianza di massa dei cittadini americani.

Al di là delle ovvie considerazioni etiche, la costruzione di sistemi militari letali in grado di prendere decisioni senza supervisione umana apre uno scenario inimmaginabile. Gli stessi ricercatori di Anthropic hanno documentato che i loro modelli, in certi esperimenti, mentono e arrivano a ricattare i propri ingegneri. Consegnare a questi modelli un sistema d’arma senza controllo umano, significa scommettere che questi gesti di “ribellione” non possano mai accadere nel momento sbagliato.

Il punto sulla sorveglianza di massa, invece, è diverso: ha natura esclusivamente politica e i suoi contorni sono, se possibile, perfino più inquietanti. Come ha spiegato Amodei in una recente intervista, un sistema del genere “farebbe una mappa di tutti i cittadini americani”. Non è fantascienza: i sistemi di sorveglianza basati sull’intelligenza artificiale sono già operativi in Cina, e la loro adozione si sta diffondendo nei regimi autocratici di tutto il mondo.

La costruzione di meccanismi di controllo sociale in grado di osservare le opinioni di tutti i cittadini limitando drasticamente la loro libertà di espressione è tipica dei regimi di autoritari, in cui le elezioni continuano a tenersi ma la competizione è così sbilanciata dagli abusi del governo che l’opposizione non ha alcuna concreta chance di rovesciare il potere.

Quanto accaduto è emblematico del futuro che ci aspetta: ci sarà ancora spazio per costruire un mondo dove le comunità dal basso siano in grado di determinare la traiettoria del mondo?

Tiziano Conti