Cerca
Categorie
digital health

AI Pact: la Commissione supporta le organizzazioni per una maggiore conformità all’AI ACT

Sebbene l’AI ACT sia stato approvato, alcuni requisiti relativi ai sistemi di IA ad alto rischio e altre disposizioni saranno applicabili solo alla fine di un periodo transitorio (ossia il periodo che intercorre tra l’entrata in vigore e la data di applicabilità).

L’ AI PACT – Patto sull’Intelligenza Artificiale

La Commissione sta quindi promuovendo l’AI Pact, Patto sull’Intelligenza Artificiale, chiedendo l’impegno volontario del settore ad anticipare la legge sull’IA e ad avviare l’attuazione dei suoi requisiti prima della scadenza legale. Per riunire i partecipanti, nel novembre 2023 è stato pubblicato il primo invito a manifestare interesse, che ha ottenuto risposte da oltre 550 organizzazioni di varie dimensioni, settori e paesi. Da allora l’Ufficio per l’IA ha avviato lo sviluppo del patto sull’IA, strutturato attorno a due pilastri:

  • Il primo pilastro funge da punto di accesso per coinvolgere la rete del patto per l’IA (le organizzazioni che hanno espresso interesse per il patto), incoraggia lo scambio di migliori pratiche e fornisce informazioni pratiche sul processo di attuazione della legge sull’IA;
  • il secondo pilastro incoraggia i fornitori e gli operatori di sistemi di IA a prepararsi tempestivamente e ad adottare misure per conformarsi ai requisiti e agli obblighi stabiliti dalla legislazione.

La Commissione collabora con i partecipanti e li sostiene nei seguenti ambiti:

  • costruire una comprensione comune degli obiettivi della legge sull’IA;
  • intraprendere azioni concrete per comprendere, adattare e preparare la futura attuazione della legge sull’IA (ad esempio costruire processi interni, preparare il personale e autovalutare i sistemi di IA);
  • condividere le conoscenze e aumentare la visibilità e la credibilità delle garanzie messe in atto per dimostrare l’affidabilità dell’IA;
  • rafforzare la fiducia nelle tecnologie di IA;
  • il patto consente ai pionieri e ai partecipanti ambiziosi di testare e condividere le loro soluzioni con la comunità in generale.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Approvato il Regolamento sull’Intelligenza Artificiale

Il regolamento sull’intelligenza artificiale (IA) è un elemento chiave della politica dell’UE volta a promuovere lo sviluppo e l’adozione, in tutto il mercato unico, di un’IA sicura e lecita che rispetti i diritti fondamentali. La Commissione ad aprile 2024 ha presentato la proposta di regolamento e il 21 Maggio 2024 il Consiglio lo ha approvato.

Questo atto legislativo faro segue un approccio “basato sul rischio”: tanto maggiore è il rischio di arrecare danni alla società, tanto più rigorose sono le regole. Si tratta del primo di questo tipo al mondo e fissa uno standard globale per la regolamentazione dell’IA.

Il nuovo regolamento sull’intelligenza artificiale (IA)

Il nuovo regolamento mira a promuovere lo sviluppo e l’adozione, da parte di attori sia pubblici che privati, di sistemi di IA sicuri e affidabili in tutto il mercato unico dell’UE. Al tempo stesso, punta a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa. Il regolamento sull’IA si applica unicamente ai settori che rientrano nel diritto dell’UE e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché a fini di ricerca.

La Governance:

Al fine di garantire una corretta applicazione, sono stati istituiti diversi organi direttivi:

  • un ufficio per l’IA all’interno della Commissione per far rispettare le regole comuni in tutta l’UE;
  • un gruppo di esperti scientifici indipendenti a sostegno delle attività di esecuzione;
  • un comitato per l’IA composto da rappresentanti degli Stati membri e incaricato di fornire consulenza e assistenza alla Commissione e agli Stati membri ai fini di un’applicazione coerente ed efficace del regolamento sull’IA;
  • un forum consultivo per i portatori di interessi volto a fornire competenze tecniche al comitato per l’IA e alla Commissione.

Le Sanzioni:

In caso di violazioni del Regolamento, sono state fissate delle sanzioni pecuniarie in percentuale del fatturato annuo globale nell’esercizio finanziario precedente della società che ha commesso il reato o, se superiore, in un importo predeterminato. Le PMI e le start-up sono soggette a sanzioni amministrative pecuniarie proporzionali.

Misure a Sostegno dell’Innovazione:

Il regolamento sull’IA prevede un quadro giuridico favorevole all’innovazione e mira a promuovere un apprendimento normativo basato su dati concreti. Stabilisce che gli spazi di sperimentazione normativa per l’IA, che dovrebbero creare un ambiente controllato per lo sviluppo, le prove e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di sperimentare sistemi di IA innovativi in condizioni reali.

Prossimi Passi:

Dopo la firma da parte della presidente del Parlamento europeo e del presidente del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei giorni seguenti ed entrerà in vigore venti giorni dopo la pubblicazione. Il regolamento sull’IA si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Commissione Europea: Istituito l’Ufficio per l’IA

All’interno della Commissione sarà istituito un Ufficio europeo per l’intelligenza artificiale nell’ambito della struttura amministrativa della Direzione generale per le reti di comunicazione, i contenuti e la tecnologia.

L’Ufficio avrà il compito principale di supportare l’attuazione della normativa sull’intelligenza artificiale, in particolare in relazione ai modelli di IA per finalità generali. Promuoverà inoltre la ricerca e l’innovazione per una IA affidabile e per permettere all’UE di avere un ruolo di leader nelle discussioni internazionali.

Le Unità di cui si compone l’Ufficio sono:

  • Unità di regolamentazione e conformità che coordina l’approccio normativo per facilitare l’applicazione e l’esecuzione uniforme della legge sull’IA in tutta l’Unione, lavorando a stretto contatto con gli Stati membri. L’unità contribuirà alle indagini e alle eventuali infrazioni, amministrando le sanzioni.
  • Unità sulla sicurezza dell’IA, che si concentra sull’identificazione dei rischi sistemici, sulle possibili misure di mitigazione e sugli approcci di valutazione e test.
  • Unità per l’eccellenza nell’IA e nella robotica, che sostiene e finanzia la ricerca e lo sviluppo per promuovere un ecosistema di eccellenza. Coordina l’iniziativa GenAI4EU, stimolando lo sviluppo di modelli e la loro integrazione in applicazioni innovative.
  • Unità AI for Societal Good che progetta e implementa l’impegno internazionale dell’Ufficio IA nell’ambito dell'”AI for good”, come la modellazione meteorologica, la diagnosi del cancro e i gemelli digitali per la ricostruzione.
  • Unità di coordinamento delle politiche e dell’innovazione in materia di IA, che supervisiona l’esecuzione della strategia dell’UE in materia di IA, monitorando le tendenze e gli investimenti, stimolando l’adozione dell’IA attraverso una rete di hub europei per l’innovazione digitale e la creazione di fabbriche di IA, e promuovendo un ecosistema innovativo sostenendo sandbox normativi e test sul mondo reale.

 

L’Ufficio IA, che conterà circa 140 risorse, sarà guidato da un Head Office e lavorerà sotto la guida di un Lead Scientific Adviser per garantire l’eccellenza scientifica nella valutazione dei modelli e degli approcci innovativi, e di un Adviser for International Affairs per garantire un lavoro sinergico con i partner internazionali per una AI affidabile.

L’Ufficio garantirà l’attuazione coerente della legge sull’ Intelligenza Artificiale (AI ACT), e per questo scopo sosterrà gli organi di governance degli Stati Membri, e collaborerà con gli sviluppatori di IA, la comunità scientifica e le parti interessate.

Per assicurare un processo decisionale corretto, l’Ufficio IA collaborerà con gli Stati Membri e con la più ampia comunità di esperti attraverso forum e gruppi di esperti dedicati. E sarà garantita uno stretto coordinamento con il Consiglio Europeo per l’Intelligenza Artificiale.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Intelligenza artificiale: il Parlamento europeo approva la legge

L’AI ACT si propone di istituire un quadro normativo completo che stabilisca gli standard per lo sviluppo e l’impiego responsabile dell’Intelligenza Artificiale – IA nel contesto occidentale.

Grazie all’AI ACT l’Unione Europea vuole fornire uno strumento per proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”.

La legge europea sull’intelligenza artificiale si basa su due concetti fondamentali: il rischio e la fiducia.

Per quanto riguarda il rischio vengono delineati 4 livelli:

  • Rischio Inaccettabile: comprende pratiche e applicazioni di IA vietate, in quanto costituiscono una minaccia ai diritti fondamentali dei cittadini. Tra queste, troviamo sistemi di categorizzazione biometrica basati su dati sensibili e l’estrapolazione indiscriminata di immagini facciali da fonti online, come registrazioni di telecamere a circuito chiuso. Sono vietati anche sistemi che riconoscono le emozioni sul luogo di lavoro o nelle scuole, pratiche di credito sociale e tecnologie di polizia predittiva.
  • Rischio elevato: comprende sistemi di IA utilizzati in settori critici come infrastrutture, istruzione, sicurezza dei prodotti e gestione dell’occupazione. Include anche servizi essenziali come migrazione, giustizia e processi democratici. Ad esempio, i sistemi di identificazione biometrica a distanza rientrano in questa categoria.
  • Rischio limitato: si riferisce ai rischi associati alla mancanza di trasparenza nell’utilizzo dell’IA. Ad esempio, un testo generato dall’IA deve essere etichettato come tale quando pubblicato per informare gli utenti su questioni di interesse pubblico. Questo mira a contrastare la disinformazione e la produzione di deepfake.
  • Rischio minimo o nullo: all’interno di questa categoria troviamo, ad esempio videogiochi abilitati per l’IA o filtri antispam, e non vengono imposte regole particolari.

Il regolamento impone obblighi specifici per l’IA in base ai rischi e all’impatto potenziale. In particolare, la nuova legge prevede:

  • il divieto di alcune applicazioni di AI che minacciano i diritti dei cittadini: ossia sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’uso indiscriminato di immagini facciali da internet per la creazione di banche dati di riconoscimento facciale, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, così come i sistemi di credito sociale e la polizia predittiva basata sulla profilazione;
  • le forze dell’ordine avranno accesso limitato ai sistemi di identificazione biometrica, consentiti solo in specifiche circostanze e con rigide garanzie;
  • i sistemi di IA ad alto rischio dovranno soddisfare obblighi chiari, come valutazione dei rischi, trasparenza e sorveglianza umana, per mitigare possibili danni alla salute, alla sicurezza e ai diritti fondamentali;
  • i sistemi di IA per finalità generali dovranno rispettare requisiti di trasparenza e diritto d’autore;
  • l’istituzione di spazi di sperimentazione per PMI e start-up per sviluppare sistemi di IA innovativi e testarli in condizioni reali.
Next stepS

Il regolamento, ancora soggetto a revisione legale e formale, dovrà essere formalmente approvato dal Consiglio dell’UE. Inizierà ad applicarsi 24 mesi dopo la sua pubblicazione in Gazzetta ufficiale, salvo alcune disposizioni che si applicheranno prima.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

AI ACT: pubblicata l’ultima versione del regolamento europeo

Dopo un mese dall’accordo politico, il testo finale dell’AI Act, il regolamento europeo sull’intelligenza artificiale, sta prendendo forma. Dall’8 dicembre, data in cui Consiglio e Parlamento europeo hanno concordato il pacchetto di norme, gli sforzi si sono concentrati sul conferire coerenza al testo. L’ultima revisione è stata completata il 21 gennaio ed è stata successivamente condivisa il 26 gennaio. Sarà approvata in via definitiva nelle prossime settimane.

Il Testo Completo: dettagli dell’AI Act

Il regolamento è composto da 85 articoli e nove allegati e presenta una struttura basata su quattro categorie di rischi: minimi, limitati, alti e inaccettabili. Queste categorie determinano le responsabilità e le restrizioni per coloro che sviluppano o utilizzano sistemi di intelligenza artificiale. Vietando specifici utilizzi, come quelli che coinvolgono tecnologie subliminali e abusi su persone vulnerabili, il regolamento stabilisce chiaramente le linee guida.

  • Sistemi ad alto rischio: Il regolamento impone restrizioni anche sui sistemi ad alto rischio, come il riconoscimento facciale in tempo reale, stabilendo regole rigide in materia di sicurezza, trasparenza e documentazione tecnica. Gli algoritmi per scopi generali sono sottoposti a regolamentazioni specifiche per garantire la leggibilità e l’identificazione dell’origine dell’intelligenza artificiale.
  • Struttura di controllo: Il sistema di controllo è affidato alle autorità locali con l’istituzione di sandbox regolatorie a livello nazionale per testare in sicurezza nuove soluzioni. A livello europeo, la struttura di vigilanza è realizzata attraverso il Consiglio dell’AI, affiancato da un forum di consulenti tecnici e un comitato indipendente di scienziati ed esperti.
  • Sanzioni: Il regolamento stabilisce sanzioni per coloro che non rispettano le disposizioni, con multe che possono raggiungere cifre significative a seconda della gravità dell’infrazione.
i Prossimi passi

Un’approvazione finale del testo è attesa dopo la revisione, e segnerà un importante passo avanti per regolare l’intelligenza artificiale nell’Unione Europea.

 

Per ulteriori informazioni, si prega di consultare il seguente LINK.

 

Categorie
digital health

IA: Consiglio e Parlamento UE si accordano sul Regolamento

Dopo intensi colloqui, lo scorso 9 Dicembre la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di regolamento sull’intelligenza artificiale (IA).

Questa iniziativa legislativa mira a garantire la sicurezza e il rispetto dei diritti fondamentali nei sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell’UE.

La proposta rappresenta un passo significativo per stimolare gli investimenti e l’innovazione nell’ambito dell’IA, e si base sull’approccio “risk-based” ovvero tanto maggiore è il rischio, quanto più rigorose sono le regole.

Il regolamento, analogamente a quanto successo con il regolamento generale sulla protezione dei dati, potrebbe diventare uno standard globale per la legislazione dell’Intelligenza Artificiale, promuovendo l’approccio europeo a questa delicata tecnologia.

Le caratteristiche dell’accordo sul regolamento dell’Intelligenza Artificiale

L’accordo comprende nuovi elementi rispetto alla proposta iniziale della Commissione, come regole per i modelli di IA ad alto impatto e un sistema di governance riveduto a livello dell’UE.

Vengono ampliati gli elenchi dei divieti, con alcune eccezioni per l’identificazione biometrica remota da parte delle autorità di contrasto. Si sottolinea inoltre la necessità per gli operatori di sistemi di IA ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali.

L’accordo definisce chiaramente la classificazione dei sistemi di IA come ad alto rischio e le pratiche di IA vietate, mentre introduce una nuova architettura di governance con un ufficio per l’IA e un gruppo scientifico di esperti.

Vengono anche stabilite sanzioni proporzionate per le violazioni, con massimali adeguati per PMI e start-up.

Il regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche. Il testo completo sarà sottoposto a ulteriori revisioni e approvazioni prima dell’adozione formale.

 

Per  maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health Altro

AI Act: un passo avanti per regolare l’intelligenza artificiale a livello europeo

Con i loro emendamenti alla proposta della Commissione per l’AI Act, i membri del Parlamento europeo mirano a garantire che sistemi AI siano supervisionati da persone, siano sicuri, trasparenti, rintracciabili, non discriminatori ed ecologicamente sostenibili.

Le regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’AI può generare. I membri del Parlamento europeo hanno apportato modifiche sostanziali all’elenco incluso nell’AI Act per includere divieti sull’utilizzo intrusivo e discriminatorio di sistemi AI, come:

  • Sistemi di identificazione biometrica a distanza “in tempo reale” in luoghi accessibili al pubblico;
  • Sistemi di identificazione biometrica a distanza “post”, con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • Sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • Sistemi di polizia preventiva (basati su profilazione, localizzazione o comportamento criminale passato);
  • Sistemi di riconoscimento delle emozioni nell’applicazione della legge, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni educative;
  • Raccolta indiscriminata di dati biometrici da social media o da registrazioni di circuito chiuso per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

I membri del Parlamento europeo hanno ampliato la classificazione delle aree ad alto rischio per includere danni alla salute delle persone, alla sicurezza, ai diritti fondamentali o all’ambiente (aggiungendo i sistemi AI per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media).

Inoltre, sono stati inclusi obblighi per i fornitori di modelli di base che dovranno garantire una protezione solida dei diritti fondamentali, della salute e della sicurezza, dell’ambiente, della democrazia e dello stato di diritto. I modelli di base generativi, come GPT, dovranno rispettare ulteriori requisiti di trasparenza, come indicare che il contenuto è stato generato da AI, progettare il modello in modo da impedirgli di generare contenuti illegali e pubblicare riassunti dei dati protetti da copyright utilizzati per l’addestramento.

Per maggiori informazioni sull’AI Act prega di consultare il seguente LINK.