Categorie
digital health

AI ACT: La Commissione Europea apre una consultazione pubblica per definire le linee guida

La Commissione Europea, attraverso il suo Ufficio per l’Intelligenza Artificiale (AI Office), ha avviato una consultazione pubblica per raccogliere contributi sul rafforzamento del quadro normativo dell’Intelligenza Artificiale (IA). Questo processo mira a migliorare l’Artificial Intelligence Act (AI Act), definendo in modo più chiaro i sistemi di IA e le pratiche vietate, per garantire che lo sviluppo tecnologico rispetti i diritti fondamentali e la sicurezza dei cittadini dell’Unione.

Una regolamentazione più precisa per il futuro dell’IA

L’AI Act, la prima normativa completa sull’intelligenza artificiale al mondo, entrerà in vigore il 2 febbraio 2025. Per prepararsi a questa scadenza, la consultazione punta a elaborare linee guida che aiutino autorità nazionali, fornitori di IA e operatori a comprendere meglio i requisiti previsti dalla normativa.

Un’attenzione particolare è riservata ai modelli di IA generativa (GPAI), come i chatbot e i generatori di contenuti, che saranno regolamentati con un codice di condotta specifico. Tra i temi al centro del dibattito ci sono:

  • Trasparenza, per garantire che gli utenti siano informati sull’interazione con sistemi di IA.
  • Gestione del copyright, per tutelare i diritti dei creatori di contenuti.
  • Mitigazione dei rischi, per prevenire utilizzi impropri o dannosi della tecnologia.
Gli obiettivi della consultazione pubblica

Aperta fino all’11 dicembre 2024, la consultazione coinvolge una vasta gamma di attori, tra cui:

  • Fornitori di tecnologie di IA
  • Imprese e organizzazioni
  • Autorità pubbliche
  • Istituti di ricerca
  • Rappresentanti della società civile.

I contributi raccolti aiuteranno la Commissione a fornire indicazioni pratiche su casi d’uso concreti, migliorando la definizione dei sistemi di IA e delle pratiche proibite. L’obiettivo è arricchire l’AI Act con esempi applicabili che supportino una regolamentazione efficace e condivisa.

L’approccio dell’AI Act

L’AI Act si basa su un sistema a quattro livelli di rischio, concepito per bilanciare innovazione e tutela dei diritti fondamentali:

  1. Rischio minimo: Sistemi come i filtri anti-spam, per cui non sono previsti obblighi particolari.
  2. Rischio specifico: Richiede trasparenza per applicazioni come chatbot, che devono dichiarare la loro natura non umana.
  3. Rischio elevato: Include software per la sanità o il reclutamento, soggetti a rigorose misure di sicurezza e supervisione.
  4. Rischio inaccettabile: Applicazioni vietate, come il “social scoring” o l’uso indiscriminato del riconoscimento biometrico, in quanto minacciano i diritti fondamentali.

 

Per accedere al modulo della consultazione, si prega di consultare il seguente LINK.

 

Per maggiori informazioni si prega di consultare il seguente LINK.