Cerca
Categorie
digital health

Intelligenza artificiale: il Parlamento europeo approva la legge

L’AI ACT si propone di istituire un quadro normativo completo che stabilisca gli standard per lo sviluppo e l’impiego responsabile dell’Intelligenza Artificiale – IA nel contesto occidentale.

Grazie all’AI ACT l’Unione Europea vuole fornire uno strumento per proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”.

La legge europea sull’intelligenza artificiale si basa su due concetti fondamentali: il rischio e la fiducia.

Per quanto riguarda il rischio vengono delineati 4 livelli:

  • Rischio Inaccettabile: comprende pratiche e applicazioni di IA vietate, in quanto costituiscono una minaccia ai diritti fondamentali dei cittadini. Tra queste, troviamo sistemi di categorizzazione biometrica basati su dati sensibili e l’estrapolazione indiscriminata di immagini facciali da fonti online, come registrazioni di telecamere a circuito chiuso. Sono vietati anche sistemi che riconoscono le emozioni sul luogo di lavoro o nelle scuole, pratiche di credito sociale e tecnologie di polizia predittiva.
  • Rischio elevato: comprende sistemi di IA utilizzati in settori critici come infrastrutture, istruzione, sicurezza dei prodotti e gestione dell’occupazione. Include anche servizi essenziali come migrazione, giustizia e processi democratici. Ad esempio, i sistemi di identificazione biometrica a distanza rientrano in questa categoria.
  • Rischio limitato: si riferisce ai rischi associati alla mancanza di trasparenza nell’utilizzo dell’IA. Ad esempio, un testo generato dall’IA deve essere etichettato come tale quando pubblicato per informare gli utenti su questioni di interesse pubblico. Questo mira a contrastare la disinformazione e la produzione di deepfake.
  • Rischio minimo o nullo: all’interno di questa categoria troviamo, ad esempio videogiochi abilitati per l’IA o filtri antispam, e non vengono imposte regole particolari.

Il regolamento impone obblighi specifici per l’IA in base ai rischi e all’impatto potenziale. In particolare, la nuova legge prevede:

  • il divieto di alcune applicazioni di AI che minacciano i diritti dei cittadini: ossia sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’uso indiscriminato di immagini facciali da internet per la creazione di banche dati di riconoscimento facciale, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, così come i sistemi di credito sociale e la polizia predittiva basata sulla profilazione;
  • le forze dell’ordine avranno accesso limitato ai sistemi di identificazione biometrica, consentiti solo in specifiche circostanze e con rigide garanzie;
  • i sistemi di IA ad alto rischio dovranno soddisfare obblighi chiari, come valutazione dei rischi, trasparenza e sorveglianza umana, per mitigare possibili danni alla salute, alla sicurezza e ai diritti fondamentali;
  • i sistemi di IA per finalità generali dovranno rispettare requisiti di trasparenza e diritto d’autore;
  • l’istituzione di spazi di sperimentazione per PMI e start-up per sviluppare sistemi di IA innovativi e testarli in condizioni reali.
Next stepS

Il regolamento, ancora soggetto a revisione legale e formale, dovrà essere formalmente approvato dal Consiglio dell’UE. Inizierà ad applicarsi 24 mesi dopo la sua pubblicazione in Gazzetta ufficiale, salvo alcune disposizioni che si applicheranno prima.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
comunicazione in salute

OMS/Europa: un toolkit operativo contro l’infodemia

L’OMS/Europa ha sviluppato un toolkit operativo per combattere l’infodemia, ovvero quella situazione che si verifica quando negli ambienti digitali e fisici sono disponibili troppe informazioni, comprese informazioni false o fuorvianti. Ciò può rappresentare un grosso rischio per la salute, che spesso viene esacerbato durante le emergenze.

Cos’è la gestione dell’infodemia?

Per contrastare il fenomeno dell’infodemia, l’OMS ha sviluppato il concetto di gestione dell’infodemia, che è un modo sistematico per prepararsi, affrontare e mitigare i pericoli di informazioni false, così come il sovraccarico o la carenza di informazioni, nelle emergenze sanitarie.

Un recente rapporto del World Economic Forum sostiene che le informazioni false e manipolate rappresentano il rischio più urgente a breve termine per il mondo. Le false informazioni possono causare morte, sfiducia e divisione nella nostra società. Inoltre, grazie ai nuovi sviluppi dell’intelligenza artificiale (AI), sta diventando sempre più facile produrre e diffondere informazioni false.

Il Toolkit dell’OMS/Europa

Il nuovo kit di strumenti operativi pubblicato dall’OMS/Europa ha l’obiettivo di rispondere alle false informazioni che si possono sviluppare durante un’emergenza sanitaria. Nel dettaglio il toolkit delinea 5 passaggi chiave, offrendo un approccio strutturato alla gestione delle informazioni false in situazioni complesse.

  1. Rilevamento del segnale, che implica la comprensione delle narrazioni sanitarie, delle domande, delle preoccupazioni e delle lacune informative del pubblico a rischio. Ciò può essere fatto attraverso metodi online e offline, come il monitoraggio dei social media, i focus group e il coinvolgimento della comunità.
  2. Verifica del segnale, che richiede il controllo dei fatti delle informazioni, l’analisi della credibilità della fonte e il confronto delle informazioni con altre fonti per verificarne l’accuratezza e la coerenza.
  3. Valutazione del rischio, che valuta il potenziale danno delle informazioni false sulla base di fattori quali la credibilità della fonte, la diffusione e l’impatto sulla salute pubblica.
  4. Progettazione della risposta, che sviluppa un piano di comunicazione per contrastare le false informazioni e affrontare i rischi.
  5. Sensibilizzazione, che trasmette i messaggi chiave al pubblico target, convincendolo ad adottare i comportamenti sanitari desiderati.

Il toolkit offre quindi agli utenti una ricca gamma di tattiche e approcci sistemici che possono aiutarli a gestire le informazioni false, tutte basate su buone pratiche provenienti dall’Europa e da altre parti del mondo.

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
Altro

Commissione UE: pubblicata la relazione generale UE per il 2023

La Commissione Europea ha pubblicato l’edizione 2023 della relazione generale sulle attività dell’UE, in linea con il trattato sul funzionamento dell’Unione Europea. La relazione illustra i principali risultati conseguiti nel 2023 e mostra come, in un momento di realtà geopolitiche mutevoli, l’UE si sia concentrata sul soddisfacimento delle aspirazioni dei cittadini e sulla risposta alle sfide emerse.

Inoltre, a livello interno, l’UE ha perseguito le sue priorità fondamentali, continuando a sostenere l’economia grazie al piano per la ripresa NextGenerationEU da 800 miliardi di € e intensificando le azioni volte a rafforzare la propria competitività mediante il potenziamento dell’industria a zero emissioni nette, grazie alla quale è possibile creare posti di lavoro di qualità e conseguire l’obiettivo climatico dell’Unione. L’UE ha inoltre compiuto progressi significativi nell’ambito della transizione digitale, dal regolamento sui chip alla prima normativa globale sull’intelligenza artificiale.

Infine, guardando al futuro dell’UE, il 2024 sarà un anno speciale in quanto verranno elette nuove generazione di leader. Questa sarà un’opportunità per riflettere su come la democrazia consente di rendere le nostre società più eque, le nostre industrie più competitive, e le nostre economie più resilienti.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Per visualizzare le relazioni degli anni precedenti, si prega di cliccare sopra al seguente LINK.

Categorie
Altro

Commissione UE: Thematic Networks 2024

Come ogni anno la Commissione europea invita gli stakeholder del settore sanitario a presentare proposte per un nuovo ciclo di Reti tematiche nell’ambito della Piattaforma politica sanitaria dell’UE (European Health Policy Platform – EUHPP).

Il termine ultimo per la presentazione delle proposte è fissata per il 3 aprile 2024 alle 23:59.

Le reti tematiche

Le reti tematiche sono state create per consentire alle organizzazioni di stakeholder di collaborare e produrre una dichiarazione congiunta su un tema specifico. La dichiarazione riassume la loro posizione e propone azioni in una delle seguenti aree della salute pubblica:

  • Cambiamento climatico e salute.
  • Approccio alla prevenzione lungo tutto l’arco della vita, con le parti interessate che contribuiscono a un approccio globale e multisettoriale sulla longevità in salute.
  • Sfruttare il potere dell’intelligenza artificiale contro il cancro.

La Commissione europea potrà prendere in considerazione anche proposte provenienti da altri settori della politica sanitaria, a condizione che gli stakeholder forniscano motivazioni valide.

Le Reti tematiche incoraggiano la comunità degli stakeholder a unire le forze e a svolgere attività/iniziative in sinergia con quelle portate avanti dalla Commissione e dagli Stati membri. Per questo motivo, le proposte delle Reti tematiche devono essere in linea con l’agenda della politica sanitaria dell’UE.

Le Dichiarazioni congiunte devono riflettere le informazioni attualmente disponibili sugli argomenti trattati e sono proprietà intellettuale dell’organizzazione che guida la Rete tematica; la Commissione europea non è responsabile del loro contenuto né è tenuta in alcun modo a rispondere alle proposte avanzate.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
cure integrate comunicazione in salute digital health lotta contro il cancro News ProMIS Salute mentale workforce

Al via la 3° Edizione della Winter School dal titolo “Dalle iniziative europee alle strategie di risposta italiane: le riforme istituzionali in salute pubblica attraverso un approccio di insieme

Il Programma Mattone Internazionale Salute – ProMIS organizza dal 5 al 7 marzo 2024 la terza Edizione della Winter School dal titolo “Dalle iniziative europee alle strategie di risposta italiane: le riforme istituzionali in salute pubblica attraverso un approccio di insieme”.

L’evento dedicato alle Regioni/PPAA italiane e altri stakeholder significativi dei sistemi sanitari regionali si svolgerà a Torino e ha l’obiettivo di fornire ai partecipanti un concreto approfondimento sulle strategie di risposta italiane alle iniziative europee in tre differenti filoni: cure integrate, salute mentale e intelligenza artificiale. Scopo dell’attività sarà analizzare lo stato dell’arte, approfondire le riforme a sostegno delle iniziative nazionali e indagare le prospettive future.

Le giornate si articoleranno in sessioni plenarie, aperte al pubblico più vasto nella sola modalità online, e in sessioni parallele tramite differenti workshop tecnici tematici, ristretti ai soli partecipanti in presenza.

Sarà possibile seguire le SOLE SESSIONI PLENARIE in live – previa iscrizione  obbligatoria QUI – entro il 23 FEBBRAIO p.v. 

Per accedere alla documentazione correlata in costante aggiornamento, si prega di consultare la pagina evento della Winter School presso il seguente LINK.

Categorie
Altro

Intelligenza Artificiale: distribuzione dei fondi europei per la ricerca

L’Intelligenza Artificiale -IA è uno dei temi di maggiore interesse negli ultimi anni per l’Unione Europea: sono stati definiti regolamenti, direttive, strategie e stanziati innumerevoli fondi per garantire lo sviluppo dell’IA in diversi settori e poter così competere con i player principali come Cina e USA.

Nonostante questi investimenti, osservando i dati relativi alle iniziative e progetti finanziati dal Programma Horizon Europe nel periodo 2021-2023 sul tema “Intelligenza Artificiale”, si nota un forte squilibrio tra i Paesi Europei:

  • Germania, Italia e Francia sono i Paesi in cui si concentrano la maggior parte dei fondi dei progetti Europei, ed in genere le performance dei Paesi dell’Europa occidentale sono migliori. Unica eccezione la Grecia, dove si contano circa 178 progetti finanziati;
  • In Italia c’è il maggior numero di beneficiari di progetti europei sul tema IA (247 beneficiari), seguita immediatamente da Spagna (246) e quindi da Germania (190), Olanda (108), Francia (100), UK (92), Belgio (90), Portogallo (55), Irlanda (46), Austria (44) Norvegia (41), Slovenia (36), Finlandia (32), Cipro (31), Danimarca (30), Polonia (26) e Romania (24).

I Beneficiari con il maggior rating di successo in termini di progetti e/o fondi EU, circa € 41 milioni di Euro di Finanziamento nel periodo 2021-2023, sono:

  • Centre for Research and Technology Hellas (Grecia);
  • Fraunhofer-Gesellschaft (Germania);
  • Leuven University (Belgio);
  • Sintef (Norvegia).

La partecipazione delle PMI in queste call è in controtendenza rispetto ai dati rappresentati fino ad ora, infatti risulta essere maggiore nei paesi con un tasso di partecipazione inferiore: Cipro ed Estonia registrano rispettivamente l’80% e il 72% delle PMI.

 

Per maggiori informazioni si prega di consultare il seguente LINK.

Categorie
digital health

IA generativa nell’assistenza sanitaria: nuove linee guida

L’OMS ha pubblicato nuove linee guida che comprendono oltre 40 raccomandazioni sull’etica e sulla governance dell’intelligenza artificiale generativa, concentrandosi sui large multi-modal models (LMM).

I Large Multi-Modal Models sono modelli di intelligenza artificiale generativa che possono accettare diversi tipi di dati di input e generare output vari, non limitati al tipo di dati inseriti nell’algoritmo. Si prevede che gli LMM saranno ampiamente utilizzati e applicati nell’assistenza sanitaria, nella ricerca scientifica, nella sanità pubblica e nello sviluppo di farmaci.

I potenziali benefici dell’intelligenza artificiale incrociano diversi ambiti e aspetti dell’assistenza sanitaria come:
  • Assistenza in diagnosi di ruotine e assistenza clinica per casi complessi.
  • Utilizzo guidato da parte del paziente per migliorare la conoscenza di una condizione medica (“Assistente Medico Digitale”).
  • Supporto nella ricerca scientifica e formazione medica e infermieristica.
  • Supporto nelle task amministrativi come traduzioni e sistematizzazione dei dati sanitari nelle cartelle cliniche elettroniche.

L’introduzione di tali modelli comporta anche significativi rischi che devono essere adeguatamente presi in considerazione, come:

  • La possibilità di generare informazioni false, imprecise o distorte, influenzate da dati di bassa qualità o pregiudizi.
  • Il rischio di non conformità ai regolamenti esistenti, compresi gli obblighi internazionali sui diritti umani e normative sulla protezione dei dati.
  • Problemi più ampi per i sistemi sanitari, come le barriere economiche di accesso agli LMM migliori e le vulnerabilità alla sicurezza informatica.

Considerando queste possibili sfide, l’OMS sottolinea l’importanza di coinvolgere diverse parti interessate, tra cui governi, aziende tecnologiche, operatori sanitari, pazienti e società civile, in tutte le fasi di sviluppo degli LMM.

Nel caso specifico dei governi, l’OMS raccomanda di mettere a disposizione infrastrutture pubbliche, approvare leggi per garantire il rispetto degli standard etici e umani, affidare la valutazione degli LMM a un’agenzia regolatoria, e introdurre audit post-rilascio e valutazioni d’impatto obbligatori.

Per maggiori informazioni si prega di consultare il seguente LINK.

 

Al via la 3° Edizione della Winter School dal titolo “Dalle iniziative europee alle strategie di risposta italiane: le riforme istituzionali in salute pubblica attraverso un approccio di insieme”

Il Programma Mattone Internazionale Salute – ProMIS organizza dal 5 al 7 marzo 2024 la terza Edizione della Winter School dal titolo “Dalle iniziative europee alle strategie di risposta italiane: le riforme istituzionali in salute pubblica attraverso un approccio di insieme”.

L’evento dedicato alle Regioni/PPAA italiane e altri stakeholder significativi dei sistemi sanitari regionali si svolgerà a Torino e ha l’obiettivo di fornire ai partecipanti un concreto approfondimento sulle strategie di risposta italiane alle iniziative europee in tre differenti filoni: cure integrate, salute mentale e intelligenza artificiale. Scopo dell’attività sarà analizzare lo stato dell’arte, approfondire le riforme a sostegno delle iniziative nazionali e indagare le prospettive future.

Le giornate si articoleranno in sessioni plenarie, aperte al pubblico più vasto nella sola modalità online, e in sessioni parallele tramite differenti workshop tecnici tematici, ristretti ai soli partecipanti in presenza.

Sarà possibile seguire le SOLE SESSIONI PLENARIE in live – previa iscrizione  obbligatoria QUI – entro il 23 FEBBRAIO p.v. 

Per accedere alla documentazione correlata in costante aggiornamento, si prega di consultare la pagina evento della Winter School presso il seguente LINK.

Categorie
digital health

AI ACT: pubblicata l’ultima versione del regolamento europeo

Dopo un mese dall’accordo politico, il testo finale dell’AI Act, il regolamento europeo sull’intelligenza artificiale, sta prendendo forma. Dall’8 dicembre, data in cui Consiglio e Parlamento europeo hanno concordato il pacchetto di norme, gli sforzi si sono concentrati sul conferire coerenza al testo. L’ultima revisione è stata completata il 21 gennaio ed è stata successivamente condivisa il 26 gennaio. Sarà approvata in via definitiva nelle prossime settimane.

Il Testo Completo: dettagli dell’AI Act

Il regolamento è composto da 85 articoli e nove allegati e presenta una struttura basata su quattro categorie di rischi: minimi, limitati, alti e inaccettabili. Queste categorie determinano le responsabilità e le restrizioni per coloro che sviluppano o utilizzano sistemi di intelligenza artificiale. Vietando specifici utilizzi, come quelli che coinvolgono tecnologie subliminali e abusi su persone vulnerabili, il regolamento stabilisce chiaramente le linee guida.

  • Sistemi ad alto rischio: Il regolamento impone restrizioni anche sui sistemi ad alto rischio, come il riconoscimento facciale in tempo reale, stabilendo regole rigide in materia di sicurezza, trasparenza e documentazione tecnica. Gli algoritmi per scopi generali sono sottoposti a regolamentazioni specifiche per garantire la leggibilità e l’identificazione dell’origine dell’intelligenza artificiale.
  • Struttura di controllo: Il sistema di controllo è affidato alle autorità locali con l’istituzione di sandbox regolatorie a livello nazionale per testare in sicurezza nuove soluzioni. A livello europeo, la struttura di vigilanza è realizzata attraverso il Consiglio dell’AI, affiancato da un forum di consulenti tecnici e un comitato indipendente di scienziati ed esperti.
  • Sanzioni: Il regolamento stabilisce sanzioni per coloro che non rispettano le disposizioni, con multe che possono raggiungere cifre significative a seconda della gravità dell’infrazione.
i Prossimi passi

Un’approvazione finale del testo è attesa dopo la revisione, e segnerà un importante passo avanti per regolare l’intelligenza artificiale nell’Unione Europea.

 

Per ulteriori informazioni, si prega di consultare il seguente LINK.

 

Categorie
digital health

Commissione UE: adottato un approccio allo sviluppo dell’IA

La Comunicazione della Commissione europea sull’intelligenza artificiale (AI@EC) delinea la sua visione strategica per promuovere lo sviluppo e l’adozione interna di un’IA legale, sicura e affidabile. La Commissione si impegna attivamente ad incorporare l’Intelligenza Artificiale nei suoi processi e sistemi, e a tale scopo:

  1. Formula direttive operative interne che forniscono al personale (utenti, sviluppatori o committenti di sistemi di IA) indicazioni chiare e pratiche su come implementare tali sistemi.
  2. Valuta e categorizza i sistemi di IA che intende utilizzare, seguendo un approccio basato sul rischio e facendo riferimento alle linee guida operative della Commissione europea.
  3. Evita l’utilizzo di sistemi di IA che contravvengono ai valori europei o costituiscono una minaccia per la sicurezza, la salute e i diritti fondamentali dei cittadini.
  4. Crea strutture organizzative atte a soddisfare gli obblighi della Commissione relativi all’IA.
Lo scopo della Commissione europea nell’implementazione dell’AI@EC:

Lo scopo della Commissione europea è utilizzare questo approccio innovativo per vagliare le iniziative politiche e legislative dell’UE in programma, nonché la legislazione vigente applicabile, inclusa quella sulla non discriminazione, sull’accessibilità, sulla sicurezza delle informazioni e sulla protezione dei dati.

Nelle decisioni riguardanti nuovi investimenti nel settore delle tecnologie dell’informazione, la Commissione darà particolare attenzione all’IA per garantire il rispetto delle linee guida operative.

Infine, la Commissione fornirà al suo personale accesso alle informazioni rilevanti sull’IA e offrirà consulenza e supporto attraverso la formazione e l’orientamento.

 

Per maggiori informazioni si prega di consultare il seguente LINK.