Home > Notizie > Legge europea sull’Intelligenza artificiale, le istituzioni europee raggiungono un accordo sul testo

Legge europea sull’Intelligenza artificiale, le istituzioni europee raggiungono un accordo sul testo

Creato il:  21 Dicembre 2023

I sistemi di IA saranno classificati in base a quattro livelli di rischio

Lo scorso 8 dicembre, a valle di un negoziato finale durato 36 ore, Parlamento, Consiglio e Commissione UE hanno raggiunto un accordo politico sul cosiddetto AI ACT o Legge sull’Intelligenza Artificiale, una bozza di regolamento che stabilisce regole armonizzate sull'intelligenza artificiale (IA) e che, una volta entrato in vigore, si applicherà ai soggetti pubblici e privati, con effetti anche all'esterno dell'Unione.

Si tratta di un accordo di grande interesse per il settore pubblico, che in ambito di IA agisce, di volta in volta, da regolatore, definendo - come in questo caso - il quadro normativo per l’utilizzo dell’IA, da acceleratore, fornendo sostegno finanziario e supporto al suo sviluppo ed utilizzo e, infine, da sviluppatore e utilizzatore di suoi propri sistemi di IA.

Salutato con soddisfazione dalle istituzioni europee, l’accordo, che rappresenta il primo tentativo a livello mondiale di regolare il settore, ha in realtà suscitato reazioni contrastanti negli ambienti politici e tecnologici del continente. Tra le critiche principali, quella di essere potenzialmente disastroso per l’innovazione e di non essere in grado di regolare una materia in così rapida evoluzione.

Il testo normativo, infatti, dovrà ora essere adottato formalmente dal Parlamento europeo e dal Consiglio, ed entrerà in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta ufficiale, ma sarà pienamente applicabile solo 24 mesi dopo l'entrata in vigore, secondo un approccio graduale.

Tuttavia, il veto nei confronti di alcuni Sistemi di IA definiti “a rischio inaccettabile” sarà già applicabile dopo 6 mesi dall’entrata in vigore, mentre dopo 12 mesi saranno applicabili gli obblighi relativi ai modelli fondativi (modelli di IA addestrati su enormi quantità di dati e con moltissimi parametri, in grado di svolgere una varietà di compiti più ampia rispetto ai modelli tradizionali), compresi i report sulla trasparenza e le valutazioni del rischio.

Nel frattempo, gli operatori sono comunque invitati ad aderire a un patto volontario per l’implementazione degli obblighi e delle regole fondamentali, con la prospettiva di incorrere in penali fino a 35 milioni di euro e comunque fino al 7% del fatturato (se superiore a tale importo), una volta che il regolamento sarà entrato in vigore.

Quanto ai contenuti normativi, a prescindere dai dettagli dell’accordo raggiunto (che restano tutt’ora sconosciuti), la bozza di regolamento si propone, in sintesi, di affrontare i rischi associati agli utilizzi di questa tecnologia, secondo un approccio che classifica i sistemi su quattro livelli di rischio e prevede un’identificazione dei rischi specifici per i modelli utilizzati per finalità generali:

RISCHIO MINIMO: è la categoria in cui ricade la maggior parte dei sistemi di IA, che possono quindi essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici (è il caso, ad esempio dei sistemi di suggerimento su misura, basati sulle preferenze, abitudini ed interessi degli utenti o dei filtri anti-spam). I fornitori di tali sistemi possono tuttavia scegliere di applicare, su base volontaria, i requisiti per un'IA affidabile e aderire a codici di condotta volontari;

ALTO RISCHIO: questi sistemi di IA, identificati nell’allegato III della proposta di regolamento, dovranno rispettare requisiti rigorosi e prevedere tra l'altro sistemi di attenuazione dei rischi, set di dati di elevata qualità, la registrazione delle attività, una documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Si tratta dei sistemi che riguardano:

  • l’identificazione e categorizzazione biometrica delle persone fisiche;
  • la gestione e il funzionamento delle infrastrutture critiche (sistemi utilizzabili per la sicurezza nella gestione del traffico stradale, nella fornitura di acqua, gas, riscaldamento ed elettricità);
  • l’istruzione e formazione professionale (sistemi per determinare l'accesso agli istituti di istruzione e formazione professionale o a valutare gli studenti negli istituti di istruzione e formazione professionale o per l'ammissione agli stessi);
  • l’occupazione, gestione dei lavoratori e l’accesso al lavoro autonomo (sistemi per l'assunzione o la selezione e valutazione dei candidati nel corso di colloqui o prove; per progressioni di carriera o cessazione dei rapporti di lavoro; per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro);
  • l’accesso a prestazioni e servizi pubblici e privati essenziali (accesso all’assistenza pubblica o a servizi di emergenza o valutazione dell'affidabilità creditizia);
  • l’attività di contrasto o polizia predittiva (es. sistemi per valutare il rischio di reato o recidiva);
  • la gestione della migrazione, dell'asilo e del controllo delle frontiere (sistemi per valutare un rischio per la sicurezza, o di immigrazione irregolare o un rischio per la salute; per verificare l'autenticità dei documenti; per l'esame delle domande di asilo, di visto e di permesso di soggiorno);
  • l’amministrazione della giustizia e processi democratici (sistemi per la ricerca e l'interpretazione dei fatti e del diritto e per l'applicazione della legge a una serie concreta di fatti).

 

RISCHIO INACCETTABILE: la proposta contiene anche una serie limitata di usi dell'IA particolarmente dannosi, che contravvengono ai valori dell'UE perché violano i diritti fondamentali e saranno pertanto vietati:

  • punteggio sociale, o social scoring, per finalità pubbliche e private (si tratta di sistemi che valutano l’affidabilità delle persone sulla base del loro comportamento sociale o di caratteristiche personali note o previste);
  • sfruttamento delle vulnerabilità delle persone, utilizzo di tecniche subliminali;
  • identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle autorità di contrasto, fatte salve limitate eccezioni;
  • categorizzazione biometrica delle persone per dedurne o desumerne la razza, le opinioni politiche, l'appartenenza sindacale, le convinzioni religiose o filosofiche o l'orientamento sessuale;
  • polizia predittiva su singoli;
  • riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione;
  • estrazione non mirata di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l'espansione di banche dati;

RISCHIO SPECIFICO PER LA TRASPARENZA: a determinati sistemi di IA sono imposti specifici obblighi di trasparenza, È, ad esempio, il caso delle chatbot. Gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall'IA dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. I fornitori dovranno inoltre configurare i sistemi in modo che i contenuti sintetici di audio, video, testo e immagini siano contrassegnati in un formato leggibile, mediante dispositivi automatici e siano riconoscibili come generati o manipolati artificialmente.

Gli Stati membri manterranno un ruolo chiave nell'applicazione del regolamento, designando una o più autorità nazionali incaricate di supervisionarne l'applicazione e l'attuazione e di svolgere attività di vigilanza del mercato. Ciascuno Stato membro designerà poi un'autorità nazionale di controllo, che rappresenterà anche il paese nell'ambito del Comitato europeo per l'intelligenza artificiale.

La Commissione istituirà inoltre un nuovo Ufficio europeo per l'IA, per la supervisione dei modelli di IA per finalità generali. L’ufficio coopererà con il Comitato europeo per l'intelligenza artificiale e sarà sostenuto da un gruppo di esperti scientifici indipendenti.

Fin qui la proposta di regolamento. In attesa di conoscere i dettagli dell’accordo raggiunto sul testo normativo e sempre che le elezioni europee del prossimo giugno non rimettano in discussione molti degli aspetti sui quali un accordo deve ancora essere raggiunto.

Leggi le sintesi ufficiali delle istituzioni europee

Comunicato stampa della Commissione  

Domande e Risposte della Commissione

Sintesi del Consiglio UE

 

Area tematica: 
Tag: 
Tipo di Contenuto: 
Data pubblicazione: 
Giovedì, 21 Dicembre, 2023 - 10:00