L’OMS ha pubblicato nuove linee guida che comprendono oltre 40 raccomandazioni sull’etica e sulla governance dell’intelligenza artificiale generativa, concentrandosi sui large multi-modal models (LMM).
I Large Multi-Modal Models sono modelli di intelligenza artificiale generativa che possono accettare diversi tipi di dati di input e generare output vari, non limitati al tipo di dati inseriti nell’algoritmo. Si prevede che gli LMM saranno ampiamente utilizzati e applicati nell’assistenza sanitaria, nella ricerca scientifica, nella sanità pubblica e nello sviluppo di farmaci.
I potenziali benefici dell’intelligenza artificiale incrociano diversi ambiti e aspetti dell’assistenza sanitaria come:
- Assistenza in diagnosi di ruotine e assistenza clinica per casi complessi.
- Utilizzo guidato da parte del paziente per migliorare la conoscenza di una condizione medica (“Assistente Medico Digitale”).
- Supporto nella ricerca scientifica e formazione medica e infermieristica.
- Supporto nelle task amministrativi come traduzioni e sistematizzazione dei dati sanitari nelle cartelle cliniche elettroniche.
L’introduzione di tali modelli comporta anche significativi rischi che devono essere adeguatamente presi in considerazione, come:
- La possibilità di generare informazioni false, imprecise o distorte, influenzate da dati di bassa qualità o pregiudizi.
- Il rischio di non conformità ai regolamenti esistenti, compresi gli obblighi internazionali sui diritti umani e normative sulla protezione dei dati.
- Problemi più ampi per i sistemi sanitari, come le barriere economiche di accesso agli LMM migliori e le vulnerabilità alla sicurezza informatica.
Considerando queste possibili sfide, l’OMS sottolinea l’importanza di coinvolgere diverse parti interessate, tra cui governi, aziende tecnologiche, operatori sanitari, pazienti e società civile, in tutte le fasi di sviluppo degli LMM.
Nel caso specifico dei governi, l’OMS raccomanda di mettere a disposizione infrastrutture pubbliche, approvare leggi per garantire il rispetto degli standard etici e umani, affidare la valutazione degli LMM a un’agenzia regolatoria, e introdurre audit post-rilascio e valutazioni d’impatto obbligatori.
Per maggiori informazioni si prega di consultare il seguente LINK.