di Andrea Boscaro e Marco Leonardi
Lo scorso 16 ottobre Mario Draghi ha proposto di “mettere in pausa” il percorso di entrata in vigore dell’AI Act europeo per l’incertezza che introduce nell’adottare l’Intelligenza Artificiale nelle cosiddette “attività ad alto rischio”, impieghi che riguardano, fra gli altri, gli ambiti della salute, dei servizi ai cittadini, dei prestiti, delle relazioni con i lavoratori. Il problema è che la norma europea richiede alle aziende una garanzia di trasparenza in merito ai dati raccolti e ai processi decisionali intrapresi dagli algoritmi; ma questa garanzia è molto difficile da fornire, soprattutto se si considera che queste tecnologie saranno per lo più acquistate da fornitori terzi. L’AI act europeo non deve frenare la possibilità dell’UE di essere competitiva almeno nell’implementazione dell’AI ai processi industriali.
La preoccupazione di Draghi di far sì che l’AI Act non costituisca un freno all’innovazione va letta anche in relazione all’ AI Action Plan americano definito dall’amministrazione Trump lo scorso luglio. Quel provvedimento è connotato da incentivi alla installazione di datacenter, deregulation nello sviluppo e nell’utilizzo delle tecnologie, esclusione dei modelli considerati “woke” dagli usi federali e nessun cenno ad un contrasto all’uso della AI per creare e diffondere disinformazione. Come espresso dall’analisi che Oscar Giannino ha fatto su Il Foglio lo scorso 23 agosto, la strategia statunitense è dunque anche un monito all’Europa di accelerare sugli investimenti previsti – ad esempio i 20 miliardi di euro stanziati per realizzare gigafactory per ridurre la dipendenza da infrastrutture e chip.
Fra le salvaguardie che però non possono essere allentate, vi è però il contrasto alla diffusione di notizie e video falsi. Del resto, gli account ufficiali del Presidente USA hanno pubblicato un video in cui Barack Obama viene mostrato mentre viene arrestato all’interno della Casa Bianca sotto lo sguardo sorridente di Trump. In Europa, un contenuto come quello ricadrebbe sotto l’effetto combinato del AI Act e del Digital Services Act: sarebbe classificato come contenuto a rischio limitato o elevato, a seconda dell’impatto, e quindi soggetto a obblighi di trasparenza da parte dell’autore ed etichettatura da parte delle piattaforme che lo pubblicano. Negli Stati Uniti, invece, non esiste oggi alcuna legge federale che imponga controlli preventivi su deepfake politici. La libertà di parola è protetta dal Primo Emendamento: anche i contenuti falsi, se non costituiscono diffamazione o frode provata, non possono essere limitati dal governo. Il nuovo piano Trump, anzi, rafforza questa posizione, esplicitando che i modelli dovranno essere liberi da riferimenti a bias ideologici.
Alcuni esempi italiani aiutano a chiarire la portata delle differenze. Sui propri profili social, la Lega ha pubblicato sui propri canali social una serie di immagini raffiguranti migranti intenti a commettere atti violenti. Le immagini, realizzate con intelligenza artificiale, sono state segnalate da più partiti all’AGCOM e al Garante della Privacy per presunta disinformazione e diffusione di contenuti razzisti. Se quelle immagini fossero state realizzate con attori reali e non con AI, la questione resterebbe confinata alla diffamazione o alla propaganda discriminatoria, ma il contenuto non sarebbe soggetto ai vincoli specifici sulla trasparenza previsti dall’AI Act.
L’AI Action Plan statunitense definisce come non neutrali tutti quei modelli che includono riferimenti a diversità, giustizia razziale, cambiamento climatico, equità o inclusione. Il concetto stesso di “bias” viene riletto al contrario: non sono i modelli ad avere pregiudizi, ma le politiche progressiste ad averli imposti. Sotto l’etichetta della neutralità si legittima però un modello culturale MAGA, e si delegittima qualsiasi tentativo di equilibrare i risultati algoritmici con il controllo umano e il rispetto dei diritti fondamentali.
Anche sul piano ambientale la distanza fra le due norme è notevole: l’AI Action Plan americano punta all’accelerazione dell’infrastruttura, inclusa la semplificazione delle autorizzazioni ambientali per nuovi data center e rimuove i requisiti di “valutazione ambientale” per i progetti di AI finanziati con fondi pubblici, considerandoli un ostacolo competitivo. L’AI Act europeo invece, pur non imponendo direttamente limiti alle emissioni o ai consumi energetici dei modelli, introduce obblighi di documentazione tecnica e trasparenza e riferimenti al ciclo di vita del modello, alla sua manutenzione e al consumo di risorse.
Negli Stati Uniti, l’intelligenza artificiale è diventata uno strumento identitario: un simbolo di potenza geopolitica, ma anche di cultura politica interna. Il nuovo corso trumpiano non la vede come una tecnologia da regolare, ma come una narrazione da controllare. In Europa, invece, l’AI è percepita come una tecnologia da rendere compatibile con i principi democratici.

Professore di economia politica all’università degli Studi di Milano, si occupa di disoccupazione e diseguaglianze. E’ stato tra gli anni 2015 e 2018 membro del comitato tecnico di valutazione della Presidenza del Consiglio e consigliere economico del Presidente Gentiloni. Ha scritto un libro sulle riforme di quegli anni dal titolo “le riforme dimezzate, perché su lavoro e pensioni non si può tornare indietro”, EGEA 2018. Fa parte della Presidenza Nazionale di Libertà Eguale.