Categorie
digital health

Avviata ufficialmente la governance europea dell’AI Act

Dal 2 agosto 2025 sono entrate in vigore alcune delle disposizioni dell’AI Act, per ciò che concerne la componente di governance del Regolamento. Tali disposizioni sono essenziali per la creazione dell’infrastruttura istituzionale e di applicazione dell’AI Act e hanno un impatto diretto sulle aziende, in particolare quelle coinvolte nell’IA general-purpose (GPAI).

Questo passo avanti segna una tappa fondamentale nell’implementazione delle norme europee sull’IA, introducendo una struttura chiara e coordinata tra livello comunitario e nazionale.

Governance dell’AI Act: QUALI SONO LE nuove strutture operative
  • AI Office: entra in funzione l’ufficio dedicato all’interno della Commissione europea, incaricato di supervisionare l’implementazione della normativa, in particolare per i modelli AI generali (GPAI).
  • AI Board Europeo: costituito da rappresentanti degli Stati membri, assiste la Commissione e favorisce un’applicazione armonizzata del regolamento.
  • Autorità nazionali competenti: ogni Paese UE deve aver designato enti per la vigilanza sul mercato e organismi notificati.
  • Panel scientifico indipendente (AI Scientific Panel): viene attivato un organismo di esperti tecnici per consultazione su rischi sistemici. A tal proposito, la Commissione europea sta istituendo un gruppo scientifico di esperti indipendenti per supportare l’attuazione e l’applicazione della legge sull’intelligenza artificiale. E’ possibile inviare la propria candidatura entro il 14 settembre 2025.
  • Parallelamente, è possibile candidarsi per partecipare all’AI Act Advisory Forum, organo di consultazione aperto a esponenti della società civile, del mondo accademico e dell’industria.
  • Obblighi per fornitori di modelli AI general-purpose (GPAI): gli sviluppatori devono ora produrre documentazione tecnica, rispettare politiche di copyright e fornire sintesi dettagliate dei dati usati per l’addestramento. I modelli con capacità ad alto impatto richiedono ulteriori misure, quali gestione del rischio, valutazioni, sicurezza informatica e comunicazione di incidenti.
  • Sanzioni: è attivo il regime sanzionatorio con multe fino a 35 milioni di euro o 7% del fatturato globale per pratiche vietate, e importi minori per altre violazioni o informazioni fuorvianti.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

La Commissione pubblica la prima bozza del Codice di Condotta per l’IA ad uso generale

La Commissione Europea ha reso disponibile la prima bozza del Codice di Condotta per l’Intelligenza Artificiale ad uso generale, uno strumento volto a supportare l’implementazione del AI Act e a promuovere lo sviluppo sicuro e affidabile dei sistemi di IA in Europa.

Il processo di elaborazione del Codice di Condotta

La bozza è stata realizzata con il contributo di esperti indipendenti, selezionati dall’AI Office per guidare i gruppi di lavoro dedicati. Questo documento è frutto di una consultazione di stakeholder appartenenti a differenti settori della società e di un workshop che ha coinvolto i fornitori di modelli di IA ad uso generale.

Obiettivi del Codice di Condotta

Il Codice di Condotta ha l’obiettivo di facilitare l’applicazione delle regole previste per i modelli di IA ad uso generale, in vista dell’entrata in vigore delle disposizioni dell’AI Act ad agosto 2025.

Il Codice di Condotta si concentra su alcuni aspetti chiave, tra cui:

  • Trasparenza e rispetto delle norme sul copyright, fondamentali per i fornitori di modelli di IA;
  • Valutazione e mitigazione dei rischi sistemici, con l’obiettivo di individuare e affrontare le possibili criticità derivanti dai modelli più avanzati di IA ad uso generale.

La pubblicazione finale del Codice di Condotta è prevista per maggio 2025.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

 

Categorie
digital health

AI ACT: La Commissione Europea apre una consultazione pubblica per definire le linee guida

La Commissione Europea, attraverso il suo Ufficio per l’Intelligenza Artificiale (AI Office), ha avviato una consultazione pubblica per raccogliere contributi sul rafforzamento del quadro normativo dell’Intelligenza Artificiale (IA). Questo processo mira a migliorare l’Artificial Intelligence Act (AI Act), definendo in modo più chiaro i sistemi di IA e le pratiche vietate, per garantire che lo sviluppo tecnologico rispetti i diritti fondamentali e la sicurezza dei cittadini dell’Unione.

Una regolamentazione più precisa per il futuro dell’IA

L’AI Act, la prima normativa completa sull’intelligenza artificiale al mondo, entrerà in vigore il 2 febbraio 2025. Per prepararsi a questa scadenza, la consultazione punta a elaborare linee guida che aiutino autorità nazionali, fornitori di IA e operatori a comprendere meglio i requisiti previsti dalla normativa.

Un’attenzione particolare è riservata ai modelli di IA generativa (GPAI), come i chatbot e i generatori di contenuti, che saranno regolamentati con un codice di condotta specifico. Tra i temi al centro del dibattito ci sono:

  • Trasparenza, per garantire che gli utenti siano informati sull’interazione con sistemi di IA.
  • Gestione del copyright, per tutelare i diritti dei creatori di contenuti.
  • Mitigazione dei rischi, per prevenire utilizzi impropri o dannosi della tecnologia.
Gli obiettivi della consultazione pubblica

Aperta fino all’11 dicembre 2024, la consultazione coinvolge una vasta gamma di attori, tra cui:

  • Fornitori di tecnologie di IA
  • Imprese e organizzazioni
  • Autorità pubbliche
  • Istituti di ricerca
  • Rappresentanti della società civile.

I contributi raccolti aiuteranno la Commissione a fornire indicazioni pratiche su casi d’uso concreti, migliorando la definizione dei sistemi di IA e delle pratiche proibite. L’obiettivo è arricchire l’AI Act con esempi applicabili che supportino una regolamentazione efficace e condivisa.

L’approccio dell’AI Act

L’AI Act si basa su un sistema a quattro livelli di rischio, concepito per bilanciare innovazione e tutela dei diritti fondamentali:

  1. Rischio minimo: Sistemi come i filtri anti-spam, per cui non sono previsti obblighi particolari.
  2. Rischio specifico: Richiede trasparenza per applicazioni come chatbot, che devono dichiarare la loro natura non umana.
  3. Rischio elevato: Include software per la sanità o il reclutamento, soggetti a rigorose misure di sicurezza e supervisione.
  4. Rischio inaccettabile: Applicazioni vietate, come il “social scoring” o l’uso indiscriminato del riconoscimento biometrico, in quanto minacciano i diritti fondamentali.

 

Per accedere al modulo della consultazione, si prega di consultare il seguente LINK.

 

Per maggiori informazioni si prega di consultare il seguente LINK.