Intelligenza artificiale: il Parlamento europeo approva la legge

Il 13.03.2024, l’UE è stata la prima al mondo ad approvare la legge sull’intelligenza artificiale, nota come AI ACT, che stabilirà gli standard per lo sviluppo e l’uso responsabile dell'IA.
Intelligenza artificiale: il Parlamento europeo approva la legge

L’AI ACT si propone di istituire un quadro normativo completo che stabilisca gli standard per lo sviluppo e l’impiego responsabile dell’Intelligenza Artificiale – IA nel contesto occidentale.

Grazie all’AI ACT l’Unione Europea vuole fornire uno strumento per proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”.

La legge europea sull’intelligenza artificiale si basa su due concetti fondamentali: il rischio e la fiducia.

Per quanto riguarda il rischio vengono delineati 4 livelli:

  • Rischio Inaccettabile: comprende pratiche e applicazioni di IA vietate, in quanto costituiscono una minaccia ai diritti fondamentali dei cittadini. Tra queste, troviamo sistemi di categorizzazione biometrica basati su dati sensibili e l’estrapolazione indiscriminata di immagini facciali da fonti online, come registrazioni di telecamere a circuito chiuso. Sono vietati anche sistemi che riconoscono le emozioni sul luogo di lavoro o nelle scuole, pratiche di credito sociale e tecnologie di polizia predittiva.
  • Rischio elevato: comprende sistemi di IA utilizzati in settori critici come infrastrutture, istruzione, sicurezza dei prodotti e gestione dell’occupazione. Include anche servizi essenziali come migrazione, giustizia e processi democratici. Ad esempio, i sistemi di identificazione biometrica a distanza rientrano in questa categoria.
  • Rischio limitato: si riferisce ai rischi associati alla mancanza di trasparenza nell’utilizzo dell’IA. Ad esempio, un testo generato dall’IA deve essere etichettato come tale quando pubblicato per informare gli utenti su questioni di interesse pubblico. Questo mira a contrastare la disinformazione e la produzione di deepfake.
  • Rischio minimo o nullo: all’interno di questa categoria troviamo, ad esempio videogiochi abilitati per l’IA o filtri antispam, e non vengono imposte regole particolari.

Il regolamento impone obblighi specifici per l’IA in base ai rischi e all’impatto potenziale. In particolare, la nuova legge prevede:

  • il divieto di alcune applicazioni di AI che minacciano i diritti dei cittadini: ossia sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’uso indiscriminato di immagini facciali da internet per la creazione di banche dati di riconoscimento facciale, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, così come i sistemi di credito sociale e la polizia predittiva basata sulla profilazione;
  • le forze dell’ordine avranno accesso limitato ai sistemi di identificazione biometrica, consentiti solo in specifiche circostanze e con rigide garanzie;
  • i sistemi di IA ad alto rischio dovranno soddisfare obblighi chiari, come valutazione dei rischi, trasparenza e sorveglianza umana, per mitigare possibili danni alla salute, alla sicurezza e ai diritti fondamentali;
  • i sistemi di IA per finalità generali dovranno rispettare requisiti di trasparenza e diritto d’autore;
  • l’istituzione di spazi di sperimentazione per PMI e start-up per sviluppare sistemi di IA innovativi e testarli in condizioni reali.
Next stepS

Il regolamento, ancora soggetto a revisione legale e formale, dovrà essere formalmente approvato dal Consiglio dell’UE. Inizierà ad applicarsi 24 mesi dopo la sua pubblicazione in Gazzetta ufficiale, salvo alcune disposizioni che si applicheranno prima.

Per maggiori informazioni si prega di consultare il seguente LINK.

NEWS E NEWSLETTER

EVENTI