AI Act, il nuovo quadro normativo per regolamentare l’Intelligenza Artificiale
Un nuovo regolamento, globale e omogeneo, per regolamentare l’Intelligenza Artificiale. Questo l’obiettivo del nuovo AI Act varato dall’Unione Europea, un documento programmatico e normativo di grande importanza, che ha visto il coinvolgimento di sviluppatori, utilizzatori, fornitori e distributori.
A sottolineare l’importanza di questa nuova regolamentazione è stato Alessandro Piva, direttore dell’Osservatorio sull’IA del Politecnico di Milano: “L’AI Act permette alle imprese di affrontare l’intelligenza artificiale con maggiore consapevolezza. Alcune si stanno preparando da diversi anni, sfruttando così un vantaggio competitivo. Le stesse imprese che avevano avviato programmi di adozione dell’AI tradizionale ora stanno beneficiando delle opportunità offerte dall’AI generativa”.
Tra queste imprese ci sono, senza dubbio, le piattaforme di gioco online, dove l’IA è utilizzata sia per il marketing che per la promozione di stili di gioco responsabili e per la prevenzione di possibili patologie. In occasione di un recente incontro organizzato dalla WH Partners, Flores Gavril, Chief Strategy e Policy Officer della Malta Digital Innovation Authority, ha sottolineato l’importanza del documento comunitario soprattutto per quanto riguarda diritti fondamentali, benessere sociale, sicurezza tecnica e affidabilità dei sistemi. L’AI Act, infatti, nasce con l’obiettivo di garantire la fiducia dei cittadini nei confronti dei sistemi di Intelligenza Artificiale. Per farlo sono state delineate alcune criticità, classificate in quattro livelli di rischio, a ciascuno dei quali corrispondono specifiche misure di tutela. Il più grave è il rischio inaccettabile, quello che riguarda i sistemi che rappresentano una minaccia per la sicurezza o i diritti delle persone a livello sociale. Sono quindi vietate pratiche come la manipolazione dannosa, l’inganno o lo sfruttamento delle vulnerabilità degli individui tramite l’AI. Si passa poi al rischio elevato, come l’uso di IA nella progettazione di infrastrutture, ad esempio nella costruzione di un ponte, e quindi nella creazione di un difetto che potrebbe generare progetti pericolosi.
Questa categoria di rischio comprende le applicazioni che possono avere un impatto sulla salute o sui diritti fondamentali dei cittadini mentre il rischio limitato comprende non tanto i pericoli diretti ma le potenziali criticità legate alla trasparenza: la normativa richiede infatti obblighi di informazione per garantire che gli utenti sappiano quando interagiscono con un sistema di AI, come nel caso delle chatbot. L’obiettivo è preservare la fiducia, prevenire abusi sui dati sensibili e assicurare che i contenuti generati dall’AI siano chiaramente identificabili. Infine c’è un ultimo gradino di rischio, quello minimo o nullo, che per fortuna riguarda la maggior parte delle applicazioni attualmente diffuse nell’UE, come i videogiochi basati su AI o i filtri antispam. Utilizzi per cui non sono previsti vincoli normativi, vista la loro natura poco rischiosa.
Rimanendo all’interno del discorso normativo, l’Italia, oltre che con l’AI Act europeo, ha regolamentato l’Intelligenza Artificiale con il Disegno di Legge n. 1146/24, già approvato dal Senato e ora alla Camera. La norma integra l’AI Act con disposizioni nazionali, prevedendo una strategia aggiornata ogni due anni, regole specifiche per sanità, lavoro, professioni e giustizia, e ribadendo la responsabilità umana indelegabile. L’obiettivo è favorire innovazione tutelando diritti fondamentali, trasparenza e sicurezza nelle applicazioni dell’IA. Una garanzia per tutti i cittadini.