Il documento pubblicato dall’OCSE (biblioteca online dell’Organizzazione per la cooperazione e lo sviluppo economico) denominato “Azione collettiva per un’IA responsabile nella salute”, fornisce una panoramica del contesto e dello stato attuale dell’intelligenza artificiale in ambito sanitario, con le prospettive su opportunità, rischi e ostacoli del futuro dell’IA.
Il documento propone diverse aree da esplorare affinché i decisori politici possano promuovere il futuro dell’intelligenza artificiale responsabile nella sanità, che sia adattabile ai cambiamenti, rispetti gli individui, sostenga l’equità e raggiunga migliori risultati sanitari per tutti.
IL DOCUMENTO DELL’OCSE
Le aree da esplorare riguardano la fiducia, lo sviluppo delle capacità, la valutazione e la collaborazione. Queste aree riconoscono come le forze primarie necessarie per sbloccare il valore dell’intelligenza artificiale siano basate sulle persone e non su fattori tecnici.
Gli autori identificano politiche disallineate, mancanza di standard, frammentazione del sistema sanitario, responsabilità poco chiare e insufficiente fiducia e comprensione nella sanità digitale come i principali ostacoli per promuovere l’innovazione responsabile dell’IA nella sanità.
Nel documento vengono inoltre elencati diversi “rischi” che possono rallentare l’evoluzione dell’intelligenza artificiale nel settore sanitario, come risultati distorti e dannosi o disinformazione, problemi di privacy e sicurezza, perdita di connessione umana e prestazioni nel mondo reale e deriva di dati/modelli.
In aggiunta, il documento suggerisce azioni pratiche per poter migliorare l’affidabilità, sviluppare capacità, valutare ed evolvere soluzioni, come:
1. Azioni per migliorare la fiducia nell’uso delle soluzioni di IA da parte dei sistemi sanitari:
▪ coinvolgere e ascoltare le preoccupazioni del pubblico e dei fornitori e coinvolgere le parti interessate rispetto a opportunità, rischi e controlli
▪ riferire pubblicamente e supervisionare le prestazioni dell’IA
▪ stabilire regole sul controllo dei dati
▪ incentivare e supervisionare l’adesione alle pratiche di IA responsabile
2. AzionE NEL sviluppare capacità per un’IA responsabile:
▪ far crescere la cultura dell’IA e basata sui dati tra tutte le parti interessate
▪ (ri)formazione della forza lavoro
▪ costruire capacità tecniche e capacità sufficienti per supportare soluzioni di IA responsabile
3 Azioni per valutare, validare ed evolvere le soluzioni di intelligenza artificiale:
▪ valutare l’impatto dell’intelligenza artificiale/investimenti digitali
▪ valutare l’intelligenza artificiale/capacità digitale
▪ evolvere soluzioni di intelligenza artificiale per nuove popolazioni e fattori ambientali
▪ evolvere valutazioni (dinamiche) delle tecnologie sanitarie per l’era digitale
4. Azioni per accelerare l’IA nel settore sanitario:
▪ adottare un approccio agile alla regolamentazione e alla supervisione dell’IA sanitaria
▪ stabilire partenariati pubblico-privato-persona-fornitore
▪ elevare la governance dei dati sanitari
▪ leadership e collaborazione per un impatto collettivo
Per maggiori informazioni si prega di consultare il seguente LINK.