1. News
  • 16 gennaio 2024
  • News

AI Act. Facciamo il punto

Le Istituzioni europee hanno raggiunto un primo accordo politico per introdurre la normativa comunitaria sull’intelligenza artificiale: l'AI Act

Condividi:

Le Istituzioni Ue a inizio dicembre hanno raggiunto un primo accordo politico sull’AI Act, la legge europea sull’intelligenza artificiale. “Una novità mondiale”, ha sottolineato la presidente della Commissione europea Ursula Von der Leyen. L’obiettivo della normativa è garantire che l’AI protegga diritti fondamentali, democrazia, Stato di diritto e sostenibilità ambientale, stimolando al tempo stesso l’innovazione e rendendo l’Europa leader nel settore.

AI Act, approccio risk-based

L’AI Act è nato come iniziativa per regolamentare l’uso e lo sviluppo dell’intelligenza artificiale all’interno dell’Unione Europea, al fine di garantire un equilibrio tra l’innovazione tecnologica e la protezione dei diritti e dei valori fondamentali dei cittadini europei.

Le nuove regole sull’intelligenza artificiale saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di AI adeguata alle esigenze future, seguendo un approccio basato sul rischio. Vediamo qui di seguito i dettagli sulle categorie.

Le categorie di rischio

Rischio minimo: la grande maggioranza dei sistemi di AI rientra nella categoria di rischio minimo. Le applicazioni come i filtri spam basati sull’AI, godranno di un “lasciapassare” e dunque saranno esenti da obblighi, in quanto presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. Ma le imprese potranno comunque impegnarsi, a titolo volontario, per adottare codici di condotta aggiuntivi per tali sistemi di Intelligenza Artificiale.

Rischio alto: questi sistemi di AI dovranno rispettare requisiti rigorosi e prevedere tra l’altro sistemi di attenuazione dei rischi, set di dati di elevata qualità, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cyber-sicurezza. Gli spazi di sperimentazione normativa faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di AI conformi. Ecco alcuni esempi: accesso ai servizi del settore privato e pubblico e le azioni correlate, compresa la valutazione dell’affidabilità creditizia, il punteggio di credito o la definizione dell’ordine di priorità dell’accesso a tali servizi, infrastrutture critiche nei settori di acqua, gas ed elettricità, dispositivi medici, sistemi utilizzati per determinare l’accesso agli istituti di istruzione, assunzioni, o controllo delle frontiere, amministrazione della giustizia e dei processi democratici. Anche i sistemi di identificazione biometrica, categorizzazione biometrica e riconoscimento delle emozioni saranno considerati ad alto rischio. 

Rischio inaccettabile: rientrano in tale categoria quei sistemi di Intelligenza Artificiale considerati una chiara minaccia per i diritti fondamentali delle persone: saranno quindi vietati. Alcuni esempi: valutazione o classificazione dell’affidabilità delle persone fisiche (c.d. social scoring) per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali, sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, giocattoli che utilizzano l’assistenza vocale per incoraggiare comportamenti pericolosi dei minori, sistemi che consentono ai governi o alle aziende di attribuire un “punteggio sociale”, oltre che determinate applicazioni di polizia predittiva. Saranno inoltre vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale a fini di attività di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

Rischio specifico per la trasparenza: i deep fake e altri contenuti generati dall’Intelligenza Artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. I fornitori dovranno inoltre configurare i sistemi in modo che i contenuti sintetici di audio, video, testo e immagini siano contrassegnati in un formato leggibile mediante dispositivi automatici e siano riconoscibili come generati o manipolati artificialmente. Gli utenti, in sostanza, quando utilizzano sistemi di AI come le chatbot, dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina.

AI Act, il contesto approvativo e sanzionatorio

Dunque, già nell’ambito di tale accordo politico sono state previste delle ammende per i soggetti che non rispetteranno le norme. Le imprese che per violazioni concernenti applicazioni di AI classificate come vietate saranno sanzionate con 35 milioni di euro, o il 7% del fatturato annuo globale (se superiore alla cifra indicata), oppure con 15 milioni di € o il 3% per le violazioni di altri obblighi e 7,5 milioni di € o l’1,5% per la comunicazione di informazioni inesatte. Sono previsti massimali più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazione della legge sull’Intelligenza Artificiale.

Cosa succede adesso? L’accordo politico dovrà ricevere l’approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale. La legge sull’AI diventerà applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull’AI per finalità generali si applicheranno dopo 12 mesi. Per procedere con l’iter approvativo sono già previste nelle prossime settimane delle riunioni tecniche per definire in dettaglio le possibilità e i paletti normativi dell’AI Act.

Da anni la Commissione Europea agevola e rafforza la cooperazione in materia di AI in tutta l’UE per stimolare la competitività e garantire la fiducia basata sui valori dell’UE. A livello internazionale l’UE ha fatto sapere che continuerà a promuovere il suo approccio all’intelligenza artificiale e ad operare in consessi quali il G7, l’OCSE, il Consiglio d’Europa, il G20 e le Nazioni Unite, sostenendo l’accordo di Hiroshima fra i leader del G7 sull’AI e sui principi guida internazionali per una intelligenza artificiale sicura e affidabile nonché il codice di condotta volontario per i sistemi di Intelligenza Artificiale avanzati.

Leggi anche “AI Revolution, approccio e architettura” e scopri di più sull’Intelligenza Artificiale.