Con l’AI Act misureremo il braccio di ferro sulle regole tech tra Europa e Stati Uniti

Lo scontro finora è latente, ma presto la distanza tra Unione europea e Stati Uniti si misurerà anche nelle norme su digitale e innovazione. A cominciare dall’AI Act, il regolamento comunitario sull’intelligenza artificiale, con cui Bruxelles punta a fissare l’asticella della protezione dei diritti e degli obblighi per le imprese. Molte delle quali hanno passaporto statunitense. Al di là dell’Atlantico le norme europee, da sempre mal digerite dai colossi tecnologici, sono finite nel mirino dell’amministrazione guidata dal presidente Donald Trump, che non ha fatto mistero di pretendere un annacquamento delle pretese per andare d’accordo con Bruxelles.

Siccome l’AI Act è un mastodonte che ha iniziato da poco a muovere i primi passi, capire quanto devierà dalla rotta tracciata per accontentare i desiderata statunitensi sarà una cartina tornasole della solidità dei principi europei sanciti nella legge, che pure è stata oggetto di una mediazione combattuta e complicata.

Per questo è interessante analizzare la terza bozza del codice delle buone pratica per i modelli di intelligenza artificiale per uso generale (GPAI). Perché mentre nelle ultime settimane il focus politico della Commissione è concentrato sul capitolo difesa e spesa militare, a livello amministrativo procedono i lavori per scrivere questo documento di indirizzo sulla gestione dei sistemi di AI che interessa i grandi sviluppatori Usa. E perché mentre dalla Cina arrivano in sequenza annunci di grandi avanzamenti tecnologici nel campo e dagli Stati Uniti di progetti colossali (su tutti il piano Stargate), nonostante la volatilità in borsa dei titoli tech, l’Europa si dibatte tra le ambizioni di investimenti pubblici della Commissione (da ridimensionare però nei volumi) e la partenza della legge tanto sbandierata.

La bozza del codice di buone pratiche

Due precisazioni di burocratese europeo prima di procedere. Per GPAI si intendono quei modelli che sono in grado di svolgere compiti diversi (come creare un testo o un’immagine) e che sono stati allenati attraverso un’enorme mole di dati non categorizzati. Come GPT-4 di OpenAI, Gemini di Google, LaMDA in casa Meta, Deepseek in Cina. Mentre il codice delle buone pratiche serve a fornire una serie di linee guida nei due anni che intercorrono tra l’entrata in vigore dei primi obblighi dell’AI Act (agosto 2025) e l’adozione degli standard (agosto 2027). È un documento senza valore legale, ma che può servire sia come allineamento preventivo ai principi del regolamento, sia come come “prova di conformità” in caso di contestazioni, fintantoché norme specifiche non sono entrate in vigore.

La bozza è articolata in quattro sezioni (valutazione, mitigazione e governance dei rischi, più trasparenza e protezione del copyright) e 18 impegni, di cui due per gli sviluppatori di GPAI e 16 per i modelli che possono costituire un rischio sistemico per i cittadini europei. Ossia un pericolo su larga scala che mina la sicurezza dell’Unione, dalla capacità di progettare armi a quella di sferrare un attacco cyber o manipolare la popolazione. Non è un caso che sia la voce più corposa. E quella più delicata, nella quale anche una virgola o una sfumatura del fraseggio può modificare significativamente il perimetro del recinto che l’Unione vuole erigere.

Il capitolo dei rischi

Agli sviluppatori di questi sistemi che possono rappresentare un rischio sistemico si chiede, per esempio, di rendere misurabile la possibilità che si palesi, di spiegare quale livello reputino “inaccettabile” e quali sono le misure di protezione e di mitigazione messe in campo. Ma quali sono questi rischi? I principali sono quattro: pericolo cyber di AI sfruttabili per attacchi sul larga scala; rischio di agevolare attacchi o incidenti chimici, batteriologici e nucleari; minaccia di manipolare il comportamento delle persone con tecniche subliminali; la perdita di controllo dei sistemi di AI, al punto da eludere i controlli umani e determinare in autonomia i propri obiettivi. A questi si aggiungono altri rischi, opzionali, come attentare alla salute e alla sicurezza pubblica, calpestare i diritti fondamentali o mettere a repentaglio la società nei suoi sistemi fondamentali. E anche rischi indefiniti, ma misurati dalle capacità del modello di AI, come quello di provocare velocemente un problema o l’impossibilità di riparare i danni.

Fonte : Wired