L’AI Act europeo, ufficialmente denominato “Regolamento (UE) 2024/1689”, è il primo quadro giuridico completo al mondo per la regolamentazione dell’intelligenza artificiale. Questo regolamento mira a stabilire un equilibrio tra l’innovazione tecnologica e la protezione dei diritti fondamentali e della sicurezza.
Ecco i punti chiave su come l’AI Act europeo regolamenta l’intelligenza artificiale:
- Approccio basato sul rischio: Il regolamento adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie in base al livello di rischio che presentano. Le categorie di rischio sono:
- Rischio inaccettabile: I sistemi di IA che presentano un rischio inaccettabile sono vietati nell’UE. Questo include sistemi che utilizzano tecniche subliminali manipolative, sfruttano le vulnerabilità delle persone, effettuano la categorizzazione biometrica di tratti sensibili (come genere, razza, etnia, religione, credo politico), il predictive policing basato sui tratti personali e i sistemi di riconoscimento delle emozioni sul lavoro o in ambito educativo.
- Alto rischio: I sistemi di IA considerati ad alto rischio sono soggetti a requisiti rigorosi prima di poter essere immessi sul mercato dell’UE. Questi sistemi possono avere un impatto negativo sulla sicurezza e sui diritti fondamentali. Essi devono rispettare requisiti di trasparenza, supervisione umana e valutazione del rischio. Esempi di sistemi di IA ad alto rischio includono quelli utilizzati in ambito educativo, lavorativo, giudiziario, immigrazione e controllo delle frontiere.
- Rischio limitato: Alcuni sistemi di IA sono soggetti a requisiti di trasparenza. Ad esempio, i deepfake devono essere etichettati in modo chiaro per indicare la loro natura artificiale.
- Rischio minimo o basso: I sistemi di IA con rischio basso o minimo, come i filtri antispam o i videogiochi, non sono soggetti a obblighi specifici, ma sono incoraggiati ad adottare codici di condotta volontari.
- Definizione di sistema di IA: L’AI Act fornisce una definizione di “sistema di IA” che comprende i sistemi basati su macchine progettati per operare con vari livelli di autonomia e che possono adattarsi dopo l’implementazione. Questi sistemi, per obiettivi espliciti o impliciti, sono in grado di inferire, sulla base degli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. La definizione include anche modelli di IA generativa.
- Regolamentazione dei modelli di IA per uso generale: L’AI Act prevede una regolamentazione specifica per i modelli di IA per uso generale, come l’IA generativa, che possono essere integrati in altri sistemi di IA. I modelli di IA per uso generale considerati a rischio sistemico sono soggetti a obblighi di documentazione e rispetto del diritto d’autore.
- Requisiti per i sistemi ad alto rischio: I sistemi di IA ad alto rischio devono soddisfare una serie di requisiti, tra cui:
- Valutazione della conformità: I fornitori di sistemi di IA ad alto rischio devono valutare la conformità ai requisiti del regolamento e possono essere soggetti a verifiche esterne.
- Marcatura CE: I sistemi di IA ad alto rischio che hanno superato la valutazione di conformità devono essere marcati CE.
- Registrazione nel database AI: I sistemi di IA ad alto rischio devono essere registrati nel database AI europeo.
- Trasparenza: I fornitori devono fornire istruzioni per l’uso corretto dei sistemi di IA ad alto rischio.
- Sandbox regolamentari: L’AI Act prevede la creazione di sandbox regolamentari per lo sviluppo e il test di sistemi di IA innovativi in un ambiente controllato. Queste sandbox sono supervisionate dalle autorità competenti per garantire la conformità all’AI Act. Le sandbox dovrebbero coordinare le loro attività e condividere le migliori pratiche. L’AI Act prevede anche la possibilità di test supervisionati in condizioni reali.
- Governance e applicazione: L’AI Act stabilisce una struttura di governance a livello europeo e nazionale per monitorare l’applicazione del regolamento. A livello europeo, è stata istituita l’European Artificial Intelligence Board (EAIB) per supervisionare l’applicazione e l’attuazione del regolamento. L’AI Office, all’interno della Commissione Europea, si occupa della supervisione dei modelli di IA per uso generale. A livello nazionale, le autorità di sorveglianza del mercato sono responsabili del monitoraggio post-mercato e delle misure correttive per i sistemi di IA non conformi.
- Sanzioni: L’AI Act prevede sanzioni pecuniarie per le violazioni del regolamento. Le sanzioni sono differenziate in base alle dimensioni dell’azienda e alla gravità della violazione.
L’AI Act è il primo tentativo di regolamentare l’intelligenza artificiale a livello globale. Esso mira a garantire che l’IA sia utilizzata in modo etico e responsabile, proteggendo i diritti fondamentali e promuovendo l’innovazione. Tuttavia, la complessità del regolamento e le numerose eccezioni possono rappresentare una sfida per la sua implementazione.