È partito il conto alla rovescia per l’entrata in vigore del Regolamento europeo sull’intelligenza artificiale. Lo scorso 21 maggio il Consiglio dell’Unione Europea ha approvato definitivamente l’Artificial intelligence act, che entrerà in vigore 20 giorni dopo la pubblicazione in gazzetta ufficiale. Anche se bisognerà attendere poi 6 mesi per l’applicazione delle normative relative ai divieti e 2 anni per le altre.
La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili nel mercato unico dell’Ue da parte di attori sia pubblici che privati. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’Ue e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa.
Classificazione dei sistemi di ia come pratiche di ia ad alto rischio e vietate
La nuova legge classifica diversi tipi di intelligenza artificiale in base al rischio. “I sistemi di ia che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di ia ad alto rischio saranno autorizzati ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’Ue”, precisa un comunicato stampa.
I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo comportamentale e il punteggio sociale saranno banditi dall’Ue perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l’uso dell’intelligenza artificiale “per il monitoraggio predittivo basato sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale”.
Modelli di intelligenza artificiale per scopi generali
La legge sull’ia affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (Gpai).
I modelli Gpai che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe.
Trasparenza e tutela dei diritti fondamentali
“Prima che un sistema di ia ad alto rischio venga implementato da alcuni enti che forniscono servizi pubblici, sarà necessario valutarne l’impatto sui diritti fondamentali. Il regolamento prevede inoltre una maggiore trasparenza riguardo allo sviluppo e all’uso di sistemi di Ia ad alto rischio. I sistemi di ia ad alto rischio, così come alcuni utenti di un sistema di ia ad alto rischio che sono enti pubblici, dovranno essere registrati nella banca dati dell’Ue per i sistemi di ia ad alto rischio e gli utenti di un sistema di riconoscimento delle emozioni dovranno informare le persone quando sono esposte a tale sistema”, prosegue la nota.
Misure a sostegno dell’innovazione
È prevista inoltre la creazione di sandbox normative sull’ia, che consentano un ambiente controllato per lo sviluppo, il test e la convalida di sistemi innovativi, anche mediante la sperimentazione in condizioni reali.