L’intelligenza artificiale può aiutare le autorità sanitarie pubbliche a combattere la disinformazione e a migliorare la comunicazione in caso di emergenza, adattando i messaggi e individuando le narrazioni dannose, ma un uso etico e una forte governance sono essenziali per evitare rischi come pregiudizi e disuguaglianze. Per questo motivo il nuovo studio dell’OMS/Europa e dell’Università di Zurigo spinge ad usare in maniera responsabile e inclusiva l’IA.
LO STUDIO
L’intelligenza artificiale (IA) può supportare le autorità sanitarie pubbliche nella gestione dei rischi e nella lotta alla disinformazione durante le emergenze sanitarie, secondo un nuovo studio dell’Università di Zurigo e dell’OMS/Europa, pubblicato su BMJ Global Health. Lo studio è la prima valutazione internazionale e multidisciplinare del ruolo dell’IA nella comunicazione del rischio, nel coinvolgimento della comunità e nella gestione dell’infodemia (risk communication, community engagement and infodemic management (RCCE-IM)).
Un gruppo di 54 esperti provenienti da 27 Paesi ha valutato come l’IA possa migliorare le comunicazioni di emergenza. I vantaggi principali includono l’adattamento dei messaggi sanitari a popolazioni specifiche, la risposta alle preoccupazioni del pubblico in tempo reale e l’aumento della portata e dell’inclusività dei messaggi, soprattutto in contesti multilingua e poco serviti. L’intelligenza artificiale potrebbe svolgere un ruolo trasformativo nell’identificare precocemente le narrazioni dannose e nel promuovere informazioni accurate e culturalmente rilevanti.
Tuttavia, lo studio sottolinea l’importanza della governance etica. È necessario affrontare rischi come i pregiudizi degli algoritmi, le violazioni della privacy e l’aggravarsi delle disuguaglianze sanitarie. Messaggi poco mirati o dati utilizzati in modo improprio possono involontariamente danneggiare gruppi vulnerabili o amplificare significativamente la disinformazione.
Lo studio raccomanda framework chiari, progettazione inclusiva, formazione per gli operatori sanitari e coordinamento globale per guidare l’uso etico dell’IA. Lo studio è in linea con la strategia Preparedness 2.0 dell’OMS/Europa e con il Piano d’azione regionale per la salute digitale 2023-2030, che danno entrambi priorità alla governance digitale e alla resilienza infodemica.
Per maggiori informazioni si prega di consultare il seguente LINK.