Cerca
Categorie
digital health

G7: adottata la Dichiarazione per lo sviluppo e utilizzo etico dell’IA

Si è tenuta a Trento la seconda riunione ministeriale del G7 a guida italiana su Industria, Tecnologia e Digitale, conclusasi con l’adozione di una Dichiarazione congiunta per promuove lo sviluppo e l’utilizzo etico dell’Intelligenza Artificiale nel settore pubblico.

L’obiettivo della presidenza italiana è stato dunque quello di promuovere lo sviluppo di un’IA che possa essere etica, sicura ed affidabile. I sistemi di intelligenza, in particolari quelli nel settore pubblico, devono poter creare un sistema digitale condiviso, efficiente, inclusivo e sicuro, in linea con le priorità e i valori che il gruppo del G7 intende esprimere.

Intelligenza Artificiale ETICA: la linea della presidenza del G7 Italiana

La linea italiana si iscrive coerentemente nel percorso e nello sviluppo che il G7 ha avuto sul tema durante le presidenze precedenti che si sono susseguite prima di quella del nostro paese.

In particolare, il focus italiano sullo sviluppo e sull’uso di sistemi di intelligenza artificiale prima di tutto etici e democratici, prima ancora che efficienti e condivisi, nasce dall’esperienza della presidenza giapponese, che aveva sviluppato un Processo di Hiroshima sull’Intelligenza Artificiale (HIAP).

La presidenza italiana intende dare forma e concretezza a quel processo attraverso la formulazione di un toolkit, che permetta di sviluppare l’intelligenza artificiale in modo etico e responsabile nel settore pubblico.

L’obiettivo è quello di sviluppare insieme agli stakeholder dei meccanismi di monitoraggio degli strumenti, che possano portare all’adozione del Codice di Condotta Internazionale, creato per le organizzazioni che si occupano dello sviluppo di sistemi di intelligenza artificiale avanzati.

Attraverso un processo condiviso e strutturale composto dall’analisi dei dati e dalla condivisione delle buone pratiche, sarà possibile dar vita ad un’infrastruttura pubblica digitale robusta, che possa garantire sicurezza, inclusione, e l’accesso a servizi pubblici essenziali e di qualità.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

ISO: Standard Mondiale dell’IA Responsabile

Il mondo dell’intelligenza artificiale (IA) ha raggiunto un nuovo traguardo significativo con l’introduzione dello standard ISO/IEC 42001 da parte dell’International Organization for Standardization (ISO). Questo primo standard globale mira a guidare le organizzazioni nello sviluppo e nell’utilizzo responsabile ed etico dei sistemi di intelligenza artificiale.

Le principali caratteristiche della nuova norma ISO/IEC 42001 possono essere riassunte in alcuni punti chiave:

  • Governance dell’IA: Definizione di chiare politiche e procedure di governance dell’IA, comprese responsabilità, processi decisionali e gestione del rischio.
  • Valutazione dell’impatto: Valutazione degli impatti sociali, ambientali e individuali dei sistemi di intelligenza artificiale per promuovere un uso responsabile ed etico.
  • Gestione del ciclo di vita dei dati e dei modelli: Implementazione delle migliori pratiche per la raccolta dei dati, l’etichettatura, la convalida e lo sviluppo, la formazione, la valutazione, l’implementazione e il monitoraggio dei modelli.
  • Diversità e inclusività: Affrontare la diversità e l’inclusività nei sistemi di IA, considerando gli impatti su vari dati demografici.
  • Monitoraggio e audit: Monitoraggio e audit continui dei sistemi di IA per garantire le prestazioni e apportare le modifiche necessarie.

Lo standard ISO/IEC 42001 si propone di svolgere un ruolo chiave nella valutazione e certificazione della conformità, contribuendo a rafforzare la fiducia all’interno della complessa catena di fornitura dell’IA. La speranza della ISO è che l’impatto di questo standard sia pari a quello degli standard ISO/IEC 9001 per la gestione della qualità e ISO/IEC 27001 per la gestione della sicurezza delle informazioni.

 

Per maggiori informazioni si prega di consultare il seguente LINK.