Categorie
digital health

Rapporto OMS: Intelligenza Artificiale nella salute e nell’etica

L’intelligenza artificiale (IA) sta già migliorando l’individuazione delle malattie e l’assistenza ai pazienti nella regione europea dell’OMS, ma definire chi è responsabile quando l’intelligenza artificiale causa danni rimane una sfida importante.

Questo rapporto dell’OMS/Europa evidenzia l’adozione disomogenea dell’intelligenza artificiale, le lacune giuridiche e le preoccupazioni in materia di sicurezza, equità e privacy, sollecitando una governance più forte e garanzie etiche per assicurare che l’IA vada a beneficio di tutti.

Il Rapporto OMS: Artificial intelligence is reshaping health systems

Il Rapporto OMS “L’intelligenza artificiale sta rivoluzionando i sistemi sanitari” (Artificial intelligence is reshaping health systems) suggerisce come questa stia già supportando l’individuazione delle malattie, riducendo gli oneri amministrativi e consentendo nuove forme di comunicazione tra operatori sanitari e pazienti in tutta la regione europea dell’OMS. Tuttavia, rimane la questione importante dell’individuare il responsabile quando l’IA potrebbe causare dei danni.

Questo rapporto dell’OMS/Europa avverte che la rapida espansione dell’IA si sta svolgendo senza le protezioni legali necessarie per garantire la sicurezza dei pazienti e dei lavoratori. Basato sulle risposte di 50 dei 53 Stati membri della regione, il rapporto offre il primo quadro regionale completo dell’adozione e della regolamentazione dell’IA.

Secondo il dottor Hans Henri P. Kluge (Direttore regionale dell’OMS per l’Europa), l’IA è ormai una realtà per milioni di persone, ma senza strategie efficaci, garanzie di privacy e investimenti nelle competenze, le disuguaglianze potrebbero accentuarsi. La maggior parte dei paesi riconosce il potenziale dell’IA nella diagnostica, nella sorveglianza e nell’assistenza personalizzata, ma i progressi rimangono disomogenei: solo 4 paesi (8%) hanno una strategia dedicata all’IA per la salute e altri 7 (14%) ne stanno sviluppando una. La dottoressa Natasha Azzopardi-Muscat (Direttrice dei sistemi sanitari, OMS/Europa.) osserva che le società si trovano a un bivio in cui l’IA può rafforzare i sistemi sanitari o minare la sicurezza, la privacy e l’equità.

Alcuni Stati membri stanno adottando misure preventive. Tuttavia, la regolamentazione fatica a tenere il passo. L’incertezza giuridica è citata dall’86% dei paesi come il principale ostacolo all’adozione, seguita dai vincoli finanziari (78%). Meno di 1 paese su 10 (8%) dispone di norme di responsabilità che definiscono le responsabilità in caso di malfunzionamento dell’IA. Senza chiari meccanismi di responsabilità e di ricorso, sia i medici che i pazienti sono esposti a rischi.

Nonostante queste lacune, l’IA è già ampiamente utilizzata: il 64% dei paesi impiega la diagnostica assistita dall’IA, in particolare nell’imaging; la metà utilizza chatbot basati sull’IA; e 26 paesi hanno identificato aree prioritarie per l’IA, anche se solo un quarto ha stanziato fondi. Migliorare l’assistenza ai pazienti (98%), alleggerire la pressione sulla forza lavoro (92%) e aumentare l’efficienza del sistema (90%) sono le motivazioni più frequentemente citate per l’adozione dell’IA.

Per il pubblico, tre sono le preoccupazioni principali: sicurezza, equità e privacy. L’IA dipende dai dati, e dati distorti o incompleti possono portare a diagnosi errate o a cure diseguali. L’OMS esorta i paesi ad allineare le strategie di IA agli obiettivi di salute pubblica, rafforzare le protezioni legali ed etiche, investire in una forza lavoro preparata all’IA, coinvolgere il pubblico in modo trasparente e migliorare la governance transfrontaliera dei dati. Come conclude il dottor Kluge, le promesse dell’IA potranno essere realizzate solo se le persone rimarranno al centro di ogni decisione.

Il rapporto evidenzia le sfide odierne: metà del mondo non dispone di una copertura sanitaria essenziale, due miliardi di persone rischiano l’impoverimento a causa dei costi dell’assistenza sanitaria e si prevede che entro il 2030 ci sarà una carenza di fino a 11 milioni di operatori sanitari. Mentre l’IA diagnostica le malattie e mette in contatto i pazienti con i servizi in tutta la regione, la governance è in ritardo.

Una governance orientata al valore consentirebbe all’IA di migliorare l’equità, l’accuratezza e i risultati. I leader sono invitati a governare l’IA con determinazione, investire nelle persone, costruire ecosistemi di dati affidabili e collaborare oltre i confini nazionali.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

L’OMS/Europa istituisce un gruppo consultivo tecnico sull’intelligenza artificiale per la salute

L’OMS/Europa ha istituito il Gruppo consultivo tecnico sull’intelligenza artificiale per la salute (Technical Advisory Group on Artificial Intelligence for Health – TAG-AI) per promuovere un uso etico, responsabile ed equo dell’IA nella sanità in tutta la regione europea dell’OMS. Il gruppo fornirà consulenza al Direttore regionale dell’OMS per l’Europa per un mandato iniziale di due anni nell’ambito del secondo European Programme of Work 2026–2030.

Il Gruppo consultivo tecnico sull’IA per la salute

In occasione del lancio ufficiale il Direttore regionale dell’OMS per l’Europa (Hans Henri P. Kluge), ha annunciato che sono stati selezionati 10 esperti garantendo un equilibrio in termini di competenze, provenienza geografica e genere.

Il mandato principale del TAG-AI è fornire una guida esperta sull’integrazione dei principi etici, della governance, della regolamentazione e della supervisione nelle strategie nazionali e regionali di IA per la salute. Il gruppo sosterrà l’OMS/Europa nella creazione di capacità, nel rafforzamento della ricerca e nello sviluppo di raccomandazioni politiche in settori emergenti dell’IA come l’apprendimento automatico e l’elaborazione del linguaggio naturale. Fornirà inoltre consulenza sull’implementazione, il monitoraggio e la valutazione degli strumenti di IA nei sistemi sanitari per garantire sicurezza, efficacia, equità, trasparenza, diritti umani e responsabilità.

Inoltre, il Gruppo consultivo tecnico sull’intelligenza artificiale per la salute sensibilizzerà l’opinione pubblica, promuoverà la difesa dei diritti e definirà modelli di governance che massimizzino i vantaggi dell’IA, in particolare nei contesti con scarse risorse e nelle popolazioni svantaggiate. Il gruppo, che si riunirà almeno una volta all’anno, aiuterà gli Stati membri a sfruttare il potenziale dell’IA per migliorare i risultati sanitari, gestendone al contempo i rischi.

Questa iniziativa è in linea con il Piano d’azione per la sanità digitale 2023-2030 (Digital health action plan for the WHO European Region 2023–2030) dell’OMS/Europa, che ribadisce il suo impegno a guidare la trasformazione digitale nel settore sanitario.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

Commissione UE: Final report sul ruolo dell’IA sul futuro dell’assistenza sanitaria

La Commissione Europea ha pubblicato un final report intitolato “Deployment of AI in Healthcare”, che analizza l’adozione dell’IA in 27 Stati membri, individuando casi d’uso in radiologia, medicina di laboratorio, gestione clinica e medicina personalizzata.

FINAL REPORT: vantaggi e sfide secondo lo studio UE

L’intelligenza artificiale (IA) sta cambiando profondamente il settore della sanità europea, introducendo soluzioni innovative per diagnosi, trattamenti e gestione dei dati, ma anche nuove sfide legate a etica, trasparenza e sicurezza.

A tal proposito, tra i benefici segnalati figurano il miglioramento dell’accuratezza diagnostica, la riduzione dei tempi di attesa e l’ottimizzazione delle risorse sanitarie. Per quanto concerne le sfide aperte, come la carenza di competenze digitali, il documento segnala la necessità di infrastrutture adeguate e l’armonizzazione delle norme sulla protezione dei dati.

Il documento raccomanda di:

  • sviluppare standard comuni per l’uso sicuro ed etico dell’IA;
  • promuovere la formazione continua degli operatori sanitari sulle tecnologie emergenti;
  • investire in infrastrutture digitali interoperabili;
  • rafforzare la cooperazione tra Stati membri per condividere buone pratiche e dati di qualità

Centrale resta l’approccio human-centric, che mantiene il controllo clinico nelle mani dei professionisti, con l’IA a supporto del giudizio medico.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

OMS: nuovo centro di collaborazione sull’IA per la governance sanitaria

 

L’OMS ha designato il Centro di Etica Digitale della Delft University of Technology come Centro di Collaborazione sull’IA per la governance sanitaria, riconoscendo la sua leadership nell’innovazione responsabile. Questa collaborazione farà progredire la ricerca sull’IA, la guida etica e la formazione per garantire un uso equo e responsabile dell’intelligenza artificiale nell’assistenza sanitaria in tutto il mondo.

Il ruolo di questo nuovo centro

L’Organizzazione Mondiale della Sanità (OMS) ha designato il Centro di Etica Digitale della Delft University of Technology nei Paesi Bassi come Centro di Collaborazione dell’OMS sull’intelligenza artificiale (IA) per la governance sanitaria. Questa designazione sottolinea la leadership del centro nel promuovere l’innovazione responsabile e l’integrazione etica nella progettazione delle tecnologie digitali, segnando una tappa significativa nella collaborazione in corso tra l’OMS e il Centro di etica digitale.

L’intelligenza artificiale ha il potenziale per rivoluzionare l’assistenza sanitaria, salvando vite, migliorando i risultati sanitari e aumentando il benessere. Tuttavia, per sfruttarne i benefici sono necessarie una governance responsabile, salvaguardie etiche e politiche basate sull’evidenza. La collaborazione dell’OMS con il Centro di Etica Digitale sottolinea l’importanza di questi principi per garantire che l’impatto dell’IA sia positivo ed equo nei sistemi sanitari globali.

Il riconoscimento del Centro si basa sulla sua lunga esperienza di ricerca innovativa sull’innovazione responsabile e sul suo ruolo nell’incorporare valori etici nella progettazione di tecnologie digitali. Da anni il Centro collabora con l’OMS per organizzare consultazioni e workshop internazionali e contribuire allo sviluppo di linee guida normative e programmi di formazione. Questa collaborazione continuerà a promuovere la missione dell’OMS di aiutare gli Stati membri ad adottare e governare in modo responsabile le tecnologie dell’intelligenza artificiale nell’assistenza sanitaria.

Il dott. Alain Labrique, Direttore della Salute e dell’Innovazione Digitale dell’OMS, ha sottolineato il potenziale di trasformazione dell’IA nei sistemi sanitari, osservando che l’uso responsabile dell’IA deve essere guidato da solide partnership accademiche e tecniche per garantire che i suoi benefici siano accessibili, sicuri ed equi per tutti gli individui. Il Centro di collaborazione appena designato farà progredire gli sforzi di ricerca dell’OMS, offrirà il contributo di esperti per lo sviluppo delle politiche e condurrà workshop a livello regionale e nazionale per promuovere la condivisione delle conoscenze e la formazione sulla governance dell’IA.

L’attenzione del Centro si estenderà anche ad affrontare le sfide legate all’adozione dell’IA nella pratica clinica attraverso iniziative come il Responsible and Ethical AI for Healthcare Lab. Questa partnership tra l’Università di Tecnologia di Delft e altre istituzioni contribuirà a fornire preziose indicazioni per migliorare l’integrazione dell’IA nelle strutture sanitarie. Attraverso questa collaborazione, l’OMS intende promuovere la trasparenza, la fiducia e l’innovazione, garantendo che l’IA serva la salute pubblica in modo responsabile ed equo.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health Salute mentale

Mental Health Europe: studio sull’IA nella cura della salute mentale

Mental Health Europe (MHE) ha pubblicato uno studio approfondito sull’applicazione dell’intelligenza artificiale (IA) nella cura della salute mentale. Co-autori dello studio sono Piers Gooding e Hannah van Kolfschooten, e il documento è rivolto a responsabili politici, fornitori di servizi e altri stakeholder interessati all’integrazione dell’IA nei servizi di salute mentale.

Opportunità offerte e considerazioni etiche dell’IA nella salute mentale

Lo studio evidenzia come l’IA possa migliorare l’accessibilità al supporto psicologico, ridurre i carichi amministrativi nei sistemi sanitari e personalizzare i trattamenti. Inoltre, l’IA ha il potenziale per aumentare l’accuratezza diagnostica e supportare interventi tempestivi, offrendo strumenti come piattaforme di comunicazione, supporto decisionale per i professionisti, terapie digitali e monitoraggio dei pazienti.

Nonostante i benefici, l’adozione dell’IA nella salute mentale comporta anche rischi significativi. A livello individuale, emergono preoccupazioni riguardo alla sicurezza, alla violazione della privacy e al consenso informato inadeguato. Su scala più ampia, l’IA potrebbe amplificare le disuguaglianze esistenti, introdurre nuove forme di sorveglianza, rafforzare visioni individualistiche della salute mentale, depersonalizzare le cure e deviare risorse limitate.

Per affrontare queste sfide, lo studio propone diverse misure:

  • Regolamentazione e supervisione rigorose: garantire che l’uso dell’IA sia conforme a standard etici e legali.
  • Trasparenza e spiegabilità: assicurare che gli algoritmi siano comprensibili e le loro decisioni giustificabili.
  • Approccio centrato sui diritti umani e co-creazione: coinvolgere attivamente le comunità più colpite, inclusi individui con esperienza diretta, nello sviluppo e nell’implementazione degli strumenti di IA.

Lo studio sottolinea infine l’importanza di sviluppare strumenti di IA che tengano conto dell’etica, dell’inclusività, dell’accuratezza, della sicurezza e delle reali esigenze degli utenti finali. Questo approccio mira a garantire che l’adozione dell’IA nella salute mentale avvenga in modo responsabile, massimizzando i benefici e minimizzando i potenziali rischi.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
Altro

Esiti G7 salute: opportunità cruciale per un’innovativa architettura sanitaria globale

Il ministro della Salute italiano, Orazio Schillaci, ha inaugurato i lavori del G7 Salute ad Ancona, tenutosi gli scorsi 10 e 11 ottobre, accogliendo i delegati dei membri del G7 (Giappone, Germania, Regno Unito, Stati Uniti, Francia, Canada e Unione Europea), insieme ai rappresentanti dei Paesi ospiti (Albania, Brasile, India, Arabia Saudita e Sudafrica) e delle principali organizzazioni internazionali, tra cui FAO, OMS e OCSE. Schillaci ha espresso fiducia nella capacità del gruppo di generare progressi significativi grazie alla collaborazione internazionale, che porterà un contributo prezioso in termini di esperienze, prospettive e idee.

I TEMI DEL G7 Salute ad Ancona

Durante i due giorni di incontri, i delegati si sono concentrati su temi per la sanità globale come la resistenza antimicrobica ed il cambiamento climatico, adottando l’approccio “One Health”. Sono stati discussi, inoltre, incentivi per la ricerca e lo sviluppo relativi alla resistenza antimicrobica, nonché la capacità di produzione farmaceutica in Africa, con l’obiettivo di rafforzare l’autonomia e la resilienza dei sistemi sanitari locali. Un altro tema centrale è l’architettura sanitaria globale, con l’obiettivo di migliorare la risposta coordinata alle sfide sanitarie su scala mondiale.

Infine, è stato evidenziato come l’intelligenza artificiale (IA) sarà un argomento chiave, soprattutto per le sue applicazioni in ambito sanitario, al fine di migliorare la gestione delle malattie e promuovere l’efficienza dei sistemi sanitari.

GLI ESITI DEL G7: L’IMPEGNO DEI GRANDI

Nel comunicato stampa finale della due giorni del G7, i ministri della salute dei paesi si sono assunti gli impegni prioritari alla base dell’accordo, quali:

  • Rafforzare l’architettura sanitaria globale e gli strumenti di prevenzione, preparazione e risposta alle pandemie.
  • Promuovere l’invecchiamento sano e attivo attraverso prevenzione e innovazione lungo tutto l’arco della vita.
  • Implementare l’approccio ’One Health’, con particolare attenzione alla resistenza agli antibiotici e al cambiamento climatico.

Inoltre, i Paesi del G7 chiedono un sostegno continuo al Fondo pandemico, con l’obiettivo di raccogliere almeno 2 miliardi di dollari nei prossimi due anni e un cofinanziamento equivalente per il Piano strategico 2024-2029.

Daranno forte supporto all’alleanza vaccinale Gavi, con l’obiettivo di vaccinare 500 milioni di bambini entro il 2030 e salvare 8 milioni di vite. A tal proposito, Gavi nel giugno 2024, ha lanciato l’African Vaccine Manufacturing Accelerator (AVMA), uno strumento di finanziamento che metterà a disposizione fino a 1,2 miliardi di dollari in dieci anni per sostenere la crescita sostenibile della base manifatturiera africana.

Infine, promuoveranno l’uso di un’intelligenza artificiale etica e sicura nella sanità, con un focus sull’innovazione e la tutela della privacy, in linea con la strategia dell’OMS sulla salute digitale.

 

Per prendere visione degli esiti, si prega di consultare il seguente LINK.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

L’intelligenza artificiale nella sanità: mappatura del quadro normativo nell’UE

L’intelligenza artificiale (IA) sta rivoluzionando il settore sanitario, migliorando diagnosi, trattamenti e la gestione dei dati dei pazienti. Tuttavia, il suo utilizzo solleva interrogativi relativi alla privacy, alla sicurezza e all’etica, rendendo essenziale un quadro normativo adeguato. Lo studio pubblicato su npj Digital Medicine ha analizzato 141 politiche dell’UE legate all’IA in sanità, evidenziando l’importanza del Regolamento UE sull’IA che promuove uno sviluppo conforme ai valori europei.

Il quadro normativo dell’IA

Tra gli aspetti normativi chiave troviamo il GDPR, che regola l’uso dei dati personali. La sua applicazione varia a livello nazionale, soprattutto nell’ambito dei dati sensibili utilizzati per l’interesse pubblico. Il regolamento sull’IA dell’UE introduce un approccio basato sul rischio per classificare i sistemi IA secondo quattro livelli di rischio (basso, medio, alto e inaccettabile), indicando le regole specifiche per ogni categoria. I sistemi ad alto rischio, come alcuni dispositivi medici basati sull’IA, devono rispettare stringenti requisiti di trasparenza, sicurezza e affidabilità.

Il quadro normativo europeo include anche altri regolamenti, come la Direttiva Open Data (Directive (EU) 2019/1024) e il Data Governance Act, che promuovono la condivisione sicura dei dati sanitari e l’interoperabilità. Quest’ultima è fondamentale per garantire che i dati provenienti da diverse fonti, come i dispositivi medici e i sistemi informatici sanitari, possano essere scambiati e utilizzati efficacemente.

Lo studio suggerisce la necessità di una regolamentazione più dettagliata per affrontare questioni legate alla responsabilità legale in caso di malfunzionamenti dell’IA. Inoltre, è importante definire standard chiari per assicurare che i pazienti abbiano il controllo sui propri dati, specialmente nel contesto dell’apprendimento automatico e dell’uso di algoritmi che possono influenzare le decisioni cliniche.

Le attuali politiche dell’UE riflettono un equilibrio tra innovazione e tutela dei diritti dei pazienti, ma lo sviluppo rapido delle tecnologie IA richiede un costante aggiornamento delle normative. Le istituzioni europee, insieme agli stati membri, stanno lavorando per creare un ecosistema normativo che favorisca l’adozione responsabile dell’IA, promuovendo la ricerca e l’uso etico delle nuove tecnologie nel settore sanitario.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

BDVA: pubblicata l’agenda strategica 2024 per il futuro digitale

Il Big Data Value Association (BDVA) ha pubblicato la sua Agenda Strategica 2024, un documento di rilevante importanza che guida lo sviluppo dell’innovazione basata sui dati e sull’intelligenza artificiale (AI) in Europa. L’obiettivo principale dell’agenda è rafforzare la competitività dell’UE nel settore dei big data e dell’AI, promuovendo la creazione di spazi di dati interoperabili e sostenibili.

L’agenda Big Data Value Association (BDVA) 2024

L’agenda del 2024 enfatizza la necessità di una collaborazione più stretta tra industria, istituzioni e centri di ricerca per affrontare le sfide legate alla qualità dei dati, alla sicurezza e alla privacy, nonché per potenziare le capacità di AI affidabili. In questo contesto, i “Data Innovation Spaces” sono strumenti chiave per testare soluzioni innovative, favorendo l’adozione di tecnologie emergenti nei settori della sanità, dell’industria e delle città intelligenti. L’ecosistema europeo dei dati, regolato dalle normative europee come il Data Governance Act, gioca un ruolo cruciale nella gestione responsabile dei dati e nella creazione di un’infrastruttura digitale sicura e scalabile.

Una parte importante dell’agenda riguarda l’inclusione dei principi di sostenibilità, in linea con il Green Deal europeo, e l’adozione di modelli di intelligenza artificiale etici, trasparenti e orientati al rispetto della privacy. Il BDVA ribadisce l’importanza di un approccio europeo coeso che valorizzi la centralità dell’utente e promuova una crescita tecnologica equa e inclusiva. L’Agenda Strategica 2024 rappresenta quindi una roadmap verso un’economia europea digitale e sostenibile, che metta al centro l’innovazione responsabile e la collaborazione internazionale.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

G7: adottata la Dichiarazione per lo sviluppo e utilizzo etico dell’IA

Si è tenuta a Trento la seconda riunione ministeriale del G7 a guida italiana su Industria, Tecnologia e Digitale, conclusasi con l’adozione di una Dichiarazione congiunta per promuove lo sviluppo e l’utilizzo etico dell’Intelligenza Artificiale nel settore pubblico.

L’obiettivo della presidenza italiana è stato dunque quello di promuovere lo sviluppo di un’IA che possa essere etica, sicura ed affidabile. I sistemi di intelligenza, in particolari quelli nel settore pubblico, devono poter creare un sistema digitale condiviso, efficiente, inclusivo e sicuro, in linea con le priorità e i valori che il gruppo del G7 intende esprimere.

Intelligenza Artificiale ETICA: la linea della presidenza del G7 Italiana

La linea italiana si iscrive coerentemente nel percorso e nello sviluppo che il G7 ha avuto sul tema durante le presidenze precedenti che si sono susseguite prima di quella del nostro paese.

In particolare, il focus italiano sullo sviluppo e sull’uso di sistemi di intelligenza artificiale prima di tutto etici e democratici, prima ancora che efficienti e condivisi, nasce dall’esperienza della presidenza giapponese, che aveva sviluppato un Processo di Hiroshima sull’Intelligenza Artificiale (HIAP).

La presidenza italiana intende dare forma e concretezza a quel processo attraverso la formulazione di un toolkit, che permetta di sviluppare l’intelligenza artificiale in modo etico e responsabile nel settore pubblico.

L’obiettivo è quello di sviluppare insieme agli stakeholder dei meccanismi di monitoraggio degli strumenti, che possano portare all’adozione del Codice di Condotta Internazionale, creato per le organizzazioni che si occupano dello sviluppo di sistemi di intelligenza artificiale avanzati.

Attraverso un processo condiviso e strutturale composto dall’analisi dei dati e dalla condivisione delle buone pratiche, sarà possibile dar vita ad un’infrastruttura pubblica digitale robusta, che possa garantire sicurezza, inclusione, e l’accesso a servizi pubblici essenziali e di qualità.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

ISO: Standard Mondiale dell’IA Responsabile

Il mondo dell’intelligenza artificiale (IA) ha raggiunto un nuovo traguardo significativo con l’introduzione dello standard ISO/IEC 42001 da parte dell’International Organization for Standardization (ISO). Questo primo standard globale mira a guidare le organizzazioni nello sviluppo e nell’utilizzo responsabile ed etico dei sistemi di intelligenza artificiale.

Le principali caratteristiche della nuova norma ISO/IEC 42001 possono essere riassunte in alcuni punti chiave:

  • Governance dell’IA: Definizione di chiare politiche e procedure di governance dell’IA, comprese responsabilità, processi decisionali e gestione del rischio.
  • Valutazione dell’impatto: Valutazione degli impatti sociali, ambientali e individuali dei sistemi di intelligenza artificiale per promuovere un uso responsabile ed etico.
  • Gestione del ciclo di vita dei dati e dei modelli: Implementazione delle migliori pratiche per la raccolta dei dati, l’etichettatura, la convalida e lo sviluppo, la formazione, la valutazione, l’implementazione e il monitoraggio dei modelli.
  • Diversità e inclusività: Affrontare la diversità e l’inclusività nei sistemi di IA, considerando gli impatti su vari dati demografici.
  • Monitoraggio e audit: Monitoraggio e audit continui dei sistemi di IA per garantire le prestazioni e apportare le modifiche necessarie.

Lo standard ISO/IEC 42001 si propone di svolgere un ruolo chiave nella valutazione e certificazione della conformità, contribuendo a rafforzare la fiducia all’interno della complessa catena di fornitura dell’IA. La speranza della ISO è che l’impatto di questo standard sia pari a quello degli standard ISO/IEC 9001 per la gestione della qualità e ISO/IEC 27001 per la gestione della sicurezza delle informazioni.

 

Per maggiori informazioni si prega di consultare il seguente LINK.