Categorie
digital health

La Commissione pubblica la prima bozza del Codice di Condotta per l’IA ad uso generale

La Commissione Europea ha reso disponibile la prima bozza del Codice di Condotta per l’Intelligenza Artificiale ad uso generale, uno strumento volto a supportare l’implementazione del AI Act e a promuovere lo sviluppo sicuro e affidabile dei sistemi di IA in Europa.

Il processo di elaborazione del Codice di Condotta

La bozza è stata realizzata con il contributo di esperti indipendenti, selezionati dall’AI Office per guidare i gruppi di lavoro dedicati. Questo documento è frutto di una consultazione di stakeholder appartenenti a differenti settori della società e di un workshop che ha coinvolto i fornitori di modelli di IA ad uso generale.

Obiettivi del Codice di Condotta

Il Codice di Condotta ha l’obiettivo di facilitare l’applicazione delle regole previste per i modelli di IA ad uso generale, in vista dell’entrata in vigore delle disposizioni dell’AI Act ad agosto 2025.

Il Codice di Condotta si concentra su alcuni aspetti chiave, tra cui:

  • Trasparenza e rispetto delle norme sul copyright, fondamentali per i fornitori di modelli di IA;
  • Valutazione e mitigazione dei rischi sistemici, con l’obiettivo di individuare e affrontare le possibili criticità derivanti dai modelli più avanzati di IA ad uso generale.

La pubblicazione finale del Codice di Condotta è prevista per maggio 2025.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

 

Categorie
digital health

AI ACT: La Commissione Europea apre una consultazione pubblica per definire le linee guida

La Commissione Europea, attraverso il suo Ufficio per l’Intelligenza Artificiale (AI Office), ha avviato una consultazione pubblica per raccogliere contributi sul rafforzamento del quadro normativo dell’Intelligenza Artificiale (IA). Questo processo mira a migliorare l’Artificial Intelligence Act (AI Act), definendo in modo più chiaro i sistemi di IA e le pratiche vietate, per garantire che lo sviluppo tecnologico rispetti i diritti fondamentali e la sicurezza dei cittadini dell’Unione.

Una regolamentazione più precisa per il futuro dell’IA

L’AI Act, la prima normativa completa sull’intelligenza artificiale al mondo, entrerà in vigore il 2 febbraio 2025. Per prepararsi a questa scadenza, la consultazione punta a elaborare linee guida che aiutino autorità nazionali, fornitori di IA e operatori a comprendere meglio i requisiti previsti dalla normativa.

Un’attenzione particolare è riservata ai modelli di IA generativa (GPAI), come i chatbot e i generatori di contenuti, che saranno regolamentati con un codice di condotta specifico. Tra i temi al centro del dibattito ci sono:

  • Trasparenza, per garantire che gli utenti siano informati sull’interazione con sistemi di IA.
  • Gestione del copyright, per tutelare i diritti dei creatori di contenuti.
  • Mitigazione dei rischi, per prevenire utilizzi impropri o dannosi della tecnologia.
Gli obiettivi della consultazione pubblica

Aperta fino all’11 dicembre 2024, la consultazione coinvolge una vasta gamma di attori, tra cui:

  • Fornitori di tecnologie di IA
  • Imprese e organizzazioni
  • Autorità pubbliche
  • Istituti di ricerca
  • Rappresentanti della società civile.

I contributi raccolti aiuteranno la Commissione a fornire indicazioni pratiche su casi d’uso concreti, migliorando la definizione dei sistemi di IA e delle pratiche proibite. L’obiettivo è arricchire l’AI Act con esempi applicabili che supportino una regolamentazione efficace e condivisa.

L’approccio dell’AI Act

L’AI Act si basa su un sistema a quattro livelli di rischio, concepito per bilanciare innovazione e tutela dei diritti fondamentali:

  1. Rischio minimo: Sistemi come i filtri anti-spam, per cui non sono previsti obblighi particolari.
  2. Rischio specifico: Richiede trasparenza per applicazioni come chatbot, che devono dichiarare la loro natura non umana.
  3. Rischio elevato: Include software per la sanità o il reclutamento, soggetti a rigorose misure di sicurezza e supervisione.
  4. Rischio inaccettabile: Applicazioni vietate, come il “social scoring” o l’uso indiscriminato del riconoscimento biometrico, in quanto minacciano i diritti fondamentali.

 

Per accedere al modulo della consultazione, si prega di consultare il seguente LINK.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

 

Categorie
digital health

Gruppo di esperti indipendenti sull’Intelligenza Artificiale: online la consultazione

Nell’ambito dell’applicazione della normativa AI Act sull’Intelligenza Artificiale in Europa, è stata pubblicata la consultazione della Commissione UE sul Regolamento di esecuzione che istituisce un gruppo scientifico di esperti indipendenti, aperta fino al 15 novembre 2024.

Il Regolamento prevede l’istituzione di un gruppo scientifico di esperti indipendenti a supporto e assistenza dell’AI Office e delle autorità nazionali di vigilanza del mercato.

La survey mira dunque a raccogliere pareri e feedback, con il fine ultimo di stabilire le norme per la costituzione e il funzionamento di tale gruppo di esperti scientifici.

E’ possibile partecipare alla consultazione cliccando al seguente LINK.

Categorie
digital health

AI ACT: la Commissione UE firma la convenzione quadro del Consiglio d’Europa

Il 1 agosto 2024 l’AI ACT, la normativa che regola l’IA in UE, è entrata in vigore. La Commissione UE ha firmato la convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale, che segna il primo accordo internazionale giuridicamente vincolante sul tema.

Caratteristiche della convenzione quadro

La convenzione firmata a Vilnius stabilisce un quadro comune per garantire che i sistemi di Intelligenza Artificiale rispettino i diritti umani, la democrazia e lo Stato di diritto, promuovendo al contempo innovazione e fiducia.

Tra i principi fondamentali vi sono l’approccio basato sul rischio, la trasparenza lungo l’intera catena del valore dei sistemi IA, obblighi di documentazione dettagliata per i sistemi considerati ad alto rischio e la possibilità di vietare quelli che rappresentano una minaccia per i diritti fondamentali.

La convenzione quadro, che ha coinvolto numerosi paesi e organizzazioni internazionali, sarà implementata nell’UE tramite il regolamento sull’IA, con l’approvazione finale del Parlamento europeo e del Consiglio.

Caratteristiche sul regolamento AI ACT

L’AI ACT è la prima legislazione globale sull’intelligenza artificiale, che mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, ponendo l’UE come leader globale nella regolamentazione dell’IA.

Il regolamento prevede un approccio basato sul rischio, distinguendo tra applicazioni di IA a basso, medio e alto rischio. Le tecnologie considerate ad alto rischio, come il riconoscimento facciale e i sistemi di IA che influenzano le decisioni umane, saranno soggette a regole più rigide. Sono vietate le applicazioni di IA che violano i diritti umani fondamentali, come il punteggio sociale utilizzato per classificare i cittadini in base al loro comportamento.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

 

Categorie
digital health

Dal 1 Agosto in vigore il regolamento UE sull’intelligenza artificiale

Il 1° agosto 2024 segna un momento cruciale per l’Unione Europea con l’entrata in vigore della prima legislazione globale sull’intelligenza artificiale (IA). Questa normativa è il risultato di anni di lavoro per creare un quadro che regoli lo sviluppo e l’uso dell’IA in modo etico, trasparente e sicuro. La legislazione mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, ponendo l’UE come leader globale nella regolamentazione dell’IA.

Caratteristiche del nuovo regolamento su Intelligenza Artificiale

Il regolamento prevede un approccio basato sul rischio, distinguendo tra applicazioni di IA a basso, medio e alto rischio. Le tecnologie considerate ad alto rischio, come il riconoscimento facciale e i sistemi di IA che influenzano le decisioni umane, saranno soggette a regole più rigide. Sono vietate le applicazioni di IA che violano i diritti umani fondamentali, come il punteggio sociale utilizzato per classificare i cittadini in base al loro comportamento.

Margrethe Vestager, Vicepresidente esecutiva della Commissione europea per il digitale, ha sottolineato come questa legislazione rappresenti un equilibrio tra il promuovere l’innovazione e la necessità di proteggere i cittadini. Allo stesso tempo, Thierry Breton, Commissario per il Mercato interno, ha evidenziato l’importanza di avere un mercato unico digitale sicuro e affidabile, capace di stimolare la crescita economica.

Un elemento chiave del regolamento è la creazione di un ecosistema di fiducia. L’introduzione di etichette di conformità e la certificazione dei sistemi di IA garantiranno che le tecnologie siano sicure e affidabili. Inoltre, il regolamento prevede che gli Stati membri istituiscano autorità nazionali competenti entro il 2025 per supervisionare l’applicazione delle norme e garantire la conformità.

Per facilitare la transizione, la Commissione europea ha introdotto un patto volontario per l’IA, che incoraggia le aziende a rispettare le norme anche prima dell’obbligo legale. L’obiettivo è di sostenere lo sviluppo di un’intelligenza artificiale che sia al servizio dell’uomo e che rispetti i principi etici fondamentali. Anche se la maggior parte delle disposizioni entrerà in vigore nel 2026, alcune misure, come i divieti su determinate tecnologie IA ad alto rischio, saranno applicate già a partire dal 2025.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

AI ACT: primo incontro dell’AI Board

Sebbene sia prevista per i primi di agosto l’entrata in vigore dell’AI Act, il 19 giugno scorso a Bruxelles si è svolto il primo incontro dell’AI Board per l’attuazione della normativa europea sull’Intelligenza Artificiale.

Oltre ai delegati della Commissione europea, tra cui il Direttore generale Roberto Viola, il Direttore dell’Ufficio AI Lucilla Sioli e i rappresentanti dell’Ufficio AI, erano presenti delegati di alto livello di tutti gli Stati membri dell’UE. Il Garante europeo della protezione dei dati (GEPD) ha partecipato in qualità di osservatore al Board dell’AI. Erano inoltre presenti, in qualità di osservatori, i rappresentanti dei membri del SEE/EFTA: Norvegia, Liechtenstein e Islanda.

I TEMI DELL’AI Board

I principali temi affrontati durante l’incontro hanno riguardato:

  • La visione strategica sull’attuazione della legge sull’AI e sul ruolo del Board
  • Gli approcci nazionali alla governance e alla supervisione della legge sull’AI
  • I primi risultati e le priorità relativi all’attuazione della legge sull’IA da parte della Commissione europea
  • L’organizzazione del Board (mandato, nomina del Presidente, processo decisionale, creazione di sottogruppi etc..)

La costituzione del Board e i relativi compiti sono previsti rispettivamente agli articoli 65 e 66 dell’AI Act.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

AI Pact: la Commissione supporta le organizzazioni per una maggiore conformità all’AI ACT

Sebbene l’AI ACT sia stato approvato, alcuni requisiti relativi ai sistemi di IA ad alto rischio e altre disposizioni saranno applicabili solo alla fine di un periodo transitorio (ossia il periodo che intercorre tra l’entrata in vigore e la data di applicabilità).

L’ AI PACT – Patto sull’Intelligenza Artificiale

La Commissione sta quindi promuovendo l’AI Pact, Patto sull’Intelligenza Artificiale, chiedendo l’impegno volontario del settore ad anticipare la legge sull’IA e ad avviare l’attuazione dei suoi requisiti prima della scadenza legale. Per riunire i partecipanti, nel novembre 2023 è stato pubblicato il primo invito a manifestare interesse, che ha ottenuto risposte da oltre 550 organizzazioni di varie dimensioni, settori e paesi. Da allora l’Ufficio per l’IA ha avviato lo sviluppo del patto sull’IA, strutturato attorno a due pilastri:

  • Il primo pilastro funge da punto di accesso per coinvolgere la rete del patto per l’IA (le organizzazioni che hanno espresso interesse per il patto), incoraggia lo scambio di migliori pratiche e fornisce informazioni pratiche sul processo di attuazione della legge sull’IA;
  • il secondo pilastro incoraggia i fornitori e gli operatori di sistemi di IA a prepararsi tempestivamente e ad adottare misure per conformarsi ai requisiti e agli obblighi stabiliti dalla legislazione.

La Commissione collabora con i partecipanti e li sostiene nei seguenti ambiti:

  • costruire una comprensione comune degli obiettivi della legge sull’IA;
  • intraprendere azioni concrete per comprendere, adattare e preparare la futura attuazione della legge sull’IA (ad esempio costruire processi interni, preparare il personale e autovalutare i sistemi di IA);
  • condividere le conoscenze e aumentare la visibilità e la credibilità delle garanzie messe in atto per dimostrare l’affidabilità dell’IA;
  • rafforzare la fiducia nelle tecnologie di IA;
  • il patto consente ai pionieri e ai partecipanti ambiziosi di testare e condividere le loro soluzioni con la comunità in generale.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Approvato il Regolamento sull’Intelligenza Artificiale

Il regolamento sull’intelligenza artificiale (IA) è un elemento chiave della politica dell’UE volta a promuovere lo sviluppo e l’adozione, in tutto il mercato unico, di un’IA sicura e lecita che rispetti i diritti fondamentali. La Commissione ad aprile 2024 ha presentato la proposta di regolamento e il 21 Maggio 2024 il Consiglio lo ha approvato.

Questo atto legislativo faro segue un approccio “basato sul rischio”: tanto maggiore è il rischio di arrecare danni alla società, tanto più rigorose sono le regole. Si tratta del primo di questo tipo al mondo e fissa uno standard globale per la regolamentazione dell’IA.

Il nuovo regolamento sull’intelligenza artificiale (IA)

Il nuovo regolamento mira a promuovere lo sviluppo e l’adozione, da parte di attori sia pubblici che privati, di sistemi di IA sicuri e affidabili in tutto il mercato unico dell’UE. Al tempo stesso, punta a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa. Il regolamento sull’IA si applica unicamente ai settori che rientrano nel diritto dell’UE e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché a fini di ricerca.

La Governance:

Al fine di garantire una corretta applicazione, sono stati istituiti diversi organi direttivi:

  • un ufficio per l’IA all’interno della Commissione per far rispettare le regole comuni in tutta l’UE;
  • un gruppo di esperti scientifici indipendenti a sostegno delle attività di esecuzione;
  • un comitato per l’IA composto da rappresentanti degli Stati membri e incaricato di fornire consulenza e assistenza alla Commissione e agli Stati membri ai fini di un’applicazione coerente ed efficace del regolamento sull’IA;
  • un forum consultivo per i portatori di interessi volto a fornire competenze tecniche al comitato per l’IA e alla Commissione.

Le Sanzioni:

In caso di violazioni del Regolamento, sono state fissate delle sanzioni pecuniarie in percentuale del fatturato annuo globale nell’esercizio finanziario precedente della società che ha commesso il reato o, se superiore, in un importo predeterminato. Le PMI e le start-up sono soggette a sanzioni amministrative pecuniarie proporzionali.

Misure a Sostegno dell’Innovazione:

Il regolamento sull’IA prevede un quadro giuridico favorevole all’innovazione e mira a promuovere un apprendimento normativo basato su dati concreti. Stabilisce che gli spazi di sperimentazione normativa per l’IA, che dovrebbero creare un ambiente controllato per lo sviluppo, le prove e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di sperimentare sistemi di IA innovativi in condizioni reali.

Prossimi Passi:

Dopo la firma da parte della presidente del Parlamento europeo e del presidente del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei giorni seguenti ed entrerà in vigore venti giorni dopo la pubblicazione. Il regolamento sull’IA si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Commissione Europea: Istituito l’Ufficio per l’IA

All’interno della Commissione sarà istituito un Ufficio europeo per l’intelligenza artificiale nell’ambito della struttura amministrativa della Direzione generale per le reti di comunicazione, i contenuti e la tecnologia.

L’Ufficio avrà il compito principale di supportare l’attuazione della normativa sull’intelligenza artificiale, in particolare in relazione ai modelli di IA per finalità generali. Promuoverà inoltre la ricerca e l’innovazione per una IA affidabile e per permettere all’UE di avere un ruolo di leader nelle discussioni internazionali.

Le Unità di cui si compone l’Ufficio sono:

  • Unità di regolamentazione e conformità che coordina l’approccio normativo per facilitare l’applicazione e l’esecuzione uniforme della legge sull’IA in tutta l’Unione, lavorando a stretto contatto con gli Stati membri. L’unità contribuirà alle indagini e alle eventuali infrazioni, amministrando le sanzioni.
  • Unità sulla sicurezza dell’IA, che si concentra sull’identificazione dei rischi sistemici, sulle possibili misure di mitigazione e sugli approcci di valutazione e test.
  • Unità per l’eccellenza nell’IA e nella robotica, che sostiene e finanzia la ricerca e lo sviluppo per promuovere un ecosistema di eccellenza. Coordina l’iniziativa GenAI4EU, stimolando lo sviluppo di modelli e la loro integrazione in applicazioni innovative.
  • Unità AI for Societal Good che progetta e implementa l’impegno internazionale dell’Ufficio IA nell’ambito dell'”AI for good”, come la modellazione meteorologica, la diagnosi del cancro e i gemelli digitali per la ricostruzione.
  • Unità di coordinamento delle politiche e dell’innovazione in materia di IA, che supervisiona l’esecuzione della strategia dell’UE in materia di IA, monitorando le tendenze e gli investimenti, stimolando l’adozione dell’IA attraverso una rete di hub europei per l’innovazione digitale e la creazione di fabbriche di IA, e promuovendo un ecosistema innovativo sostenendo sandbox normativi e test sul mondo reale.

 

L’Ufficio IA, che conterà circa 140 risorse, sarà guidato da un Head Office e lavorerà sotto la guida di un Lead Scientific Adviser per garantire l’eccellenza scientifica nella valutazione dei modelli e degli approcci innovativi, e di un Adviser for International Affairs per garantire un lavoro sinergico con i partner internazionali per una AI affidabile.

L’Ufficio garantirà l’attuazione coerente della legge sull’ Intelligenza Artificiale (AI ACT), e per questo scopo sosterrà gli organi di governance degli Stati Membri, e collaborerà con gli sviluppatori di IA, la comunità scientifica e le parti interessate.

Per assicurare un processo decisionale corretto, l’Ufficio IA collaborerà con gli Stati Membri e con la più ampia comunità di esperti attraverso forum e gruppi di esperti dedicati. E sarà garantita uno stretto coordinamento con il Consiglio Europeo per l’Intelligenza Artificiale.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Intelligenza artificiale: il Parlamento europeo approva la legge

L’AI ACT si propone di istituire un quadro normativo completo che stabilisca gli standard per lo sviluppo e l’impiego responsabile dell’Intelligenza Artificiale – IA nel contesto occidentale.

Grazie all’AI ACT l’Unione Europea vuole fornire uno strumento per proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”.

La legge europea sull’intelligenza artificiale si basa su due concetti fondamentali: il rischio e la fiducia.

Per quanto riguarda il rischio vengono delineati 4 livelli:

  • Rischio Inaccettabile: comprende pratiche e applicazioni di IA vietate, in quanto costituiscono una minaccia ai diritti fondamentali dei cittadini. Tra queste, troviamo sistemi di categorizzazione biometrica basati su dati sensibili e l’estrapolazione indiscriminata di immagini facciali da fonti online, come registrazioni di telecamere a circuito chiuso. Sono vietati anche sistemi che riconoscono le emozioni sul luogo di lavoro o nelle scuole, pratiche di credito sociale e tecnologie di polizia predittiva.
  • Rischio elevato: comprende sistemi di IA utilizzati in settori critici come infrastrutture, istruzione, sicurezza dei prodotti e gestione dell’occupazione. Include anche servizi essenziali come migrazione, giustizia e processi democratici. Ad esempio, i sistemi di identificazione biometrica a distanza rientrano in questa categoria.
  • Rischio limitato: si riferisce ai rischi associati alla mancanza di trasparenza nell’utilizzo dell’IA. Ad esempio, un testo generato dall’IA deve essere etichettato come tale quando pubblicato per informare gli utenti su questioni di interesse pubblico. Questo mira a contrastare la disinformazione e la produzione di deepfake.
  • Rischio minimo o nullo: all’interno di questa categoria troviamo, ad esempio videogiochi abilitati per l’IA o filtri antispam, e non vengono imposte regole particolari.

Il regolamento impone obblighi specifici per l’IA in base ai rischi e all’impatto potenziale. In particolare, la nuova legge prevede:

  • il divieto di alcune applicazioni di AI che minacciano i diritti dei cittadini: ossia sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’uso indiscriminato di immagini facciali da internet per la creazione di banche dati di riconoscimento facciale, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, così come i sistemi di credito sociale e la polizia predittiva basata sulla profilazione;
  • le forze dell’ordine avranno accesso limitato ai sistemi di identificazione biometrica, consentiti solo in specifiche circostanze e con rigide garanzie;
  • i sistemi di IA ad alto rischio dovranno soddisfare obblighi chiari, come valutazione dei rischi, trasparenza e sorveglianza umana, per mitigare possibili danni alla salute, alla sicurezza e ai diritti fondamentali;
  • i sistemi di IA per finalità generali dovranno rispettare requisiti di trasparenza e diritto d’autore;
  • l’istituzione di spazi di sperimentazione per PMI e start-up per sviluppare sistemi di IA innovativi e testarli in condizioni reali.
Next stepS

Il regolamento, ancora soggetto a revisione legale e formale, dovrà essere formalmente approvato dal Consiglio dell’UE. Inizierà ad applicarsi 24 mesi dopo la sua pubblicazione in Gazzetta ufficiale, salvo alcune disposizioni che si applicheranno prima.

Per maggiori informazioni si prega di consultare il seguente LINK.