La Commissione Europea, attraverso il suo Ufficio per l’Intelligenza Artificiale (AI Office), ha avviato una consultazione pubblica per raccogliere contributi sul rafforzamento del quadro normativo dell’Intelligenza Artificiale (IA). Questo processo mira a migliorare l’Artificial Intelligence Act (AI Act), definendo in modo più chiaro i sistemi di IA e le pratiche vietate, per garantire che lo sviluppo tecnologico rispetti i diritti fondamentali e la sicurezza dei cittadini dell’Unione.
Una regolamentazione più precisa per il futuro dell’IA
L’AI Act, la prima normativa completa sull’intelligenza artificiale al mondo, entrerà in vigore il 2 febbraio 2025. Per prepararsi a questa scadenza, la consultazione punta a elaborare linee guida che aiutino autorità nazionali, fornitori di IA e operatori a comprendere meglio i requisiti previsti dalla normativa.
Un’attenzione particolare è riservata ai modelli di IA generativa (GPAI), come i chatbot e i generatori di contenuti, che saranno regolamentati con un codice di condotta specifico. Tra i temi al centro del dibattito ci sono:
- Trasparenza, per garantire che gli utenti siano informati sull’interazione con sistemi di IA.
- Gestione del copyright, per tutelare i diritti dei creatori di contenuti.
- Mitigazione dei rischi, per prevenire utilizzi impropri o dannosi della tecnologia.
Gli obiettivi della consultazione pubblica
Aperta fino all’11 dicembre 2024, la consultazione coinvolge una vasta gamma di attori, tra cui:
- Fornitori di tecnologie di IA
- Imprese e organizzazioni
- Autorità pubbliche
- Istituti di ricerca
- Rappresentanti della società civile.
I contributi raccolti aiuteranno la Commissione a fornire indicazioni pratiche su casi d’uso concreti, migliorando la definizione dei sistemi di IA e delle pratiche proibite. L’obiettivo è arricchire l’AI Act con esempi applicabili che supportino una regolamentazione efficace e condivisa.
L’approccio dell’AI Act
L’AI Act si basa su un sistema a quattro livelli di rischio, concepito per bilanciare innovazione e tutela dei diritti fondamentali:
- Rischio minimo: Sistemi come i filtri anti-spam, per cui non sono previsti obblighi particolari.
- Rischio specifico: Richiede trasparenza per applicazioni come chatbot, che devono dichiarare la loro natura non umana.
- Rischio elevato: Include software per la sanità o il reclutamento, soggetti a rigorose misure di sicurezza e supervisione.
- Rischio inaccettabile: Applicazioni vietate, come il “social scoring” o l’uso indiscriminato del riconoscimento biometrico, in quanto minacciano i diritti fondamentali.
Per accedere al modulo della consultazione, si prega di consultare il seguente LINK.
Per maggiori informazioni si prega di consultare il seguente LINK.