Login con

Europa

31 Maggio 2024

Intelligenza artificiale in sanità, ecco le ricadute del regolamento europeo

L’Europa dell’AI Act c’è, ora bisogna che tutti conoscano qualità e limiti dell’intelligenza artificiale. Il Consiglio dei premier dei Ventisette stati UE ha approvato il nuovo Regolamento che già da due mesi aveva l’ok del Parlamento


Intelligenza artificiale in sanità, ecco le ricadute del regolamento europeo

L’Europa dell’AI Act c’è, ora bisogna che tutti conoscano qualità e limiti dell’intelligenza artificiale. Il Consiglio dei premier dei Ventisette stati UE ha approvato il nuovo Regolamento che già da due mesi aveva l’ok del Parlamento. Lo scopo è creare regole uniformi in tutti gli stati membri su sviluppo, immissione sul mercato, messa in servizio e uso di sistemi di IA, garantendo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali: democrazia, tutela dei diritti, protezione dell'ambiente, innovazione. Il regolamento limita le restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, e classifica questi ultimi in forme a rischio limitato, soggette ad obblighi di trasparenza molto leggeri, e forme ad alto rischio soggette a obblighi, come la valutazione dei rischi e la conformità a standard di affidabilità e sicurezza. Intanto i sondaggi sull’intelligenza artificiale e in Italia uno di EngageMinds Hub Centro di ricerca in psicologia dei consumi e della salute dell’Università Cattolica, campus di Cremona, rivelano un’Italia divisa sull’uso dell’IA in sanità. Poco più di 6 connazionali su 10 sono favorevoli, l’88% la userebbe per semplificare il linguaggio dei referti, l’86% la vorrebbe come supporto al medico per effettuare una diagnosi, l’80% come aiuto per stabilire una terapia farmacologica adeguata. Ma 7 su 10 hanno paura di perdere il contatto con il medico, 6 su 10 temono errori nelle decisioni dei sistemi e la stessa percentuale teme problemi legati alla gestione della privacy e sulla sicurezza dei propri dati sensibili. I “sì” prevalgono al Sud e nelle isole (68%), i “no” (57%) nel Nord Est.

I pazienti devono avere paura o no dell’intelligenza artificiale? Lo chiediamo ad Antonio Vittorino Gaddi, presidente della SIT, la Società Italiana di Telemedicina. «L’uso di sistemi AI apre la strada ad argomenti delicati che Bruxelles ha riordinato efficacemente, ponendosi dal punto di vista del cittadino-paziente», dice Gaddi. E avverte: «C’è un clima di “euforia” che potrebbe portare ad abusi da parte di operatori tesi a promuovere le loro tecnologie o far approvare progetti. In sanità come in altri settori ci sono in realtà prodotti molto avanzati, con potenzialità avvalorate o da avvalorare, che si basano su deep learning e machine learning, ed altri che o possono essere spacciati come tali ad un pubblico inesperto, o che pur promettenti non sono ancora così efficaci. È un campo eterogeneo. Tra l’altro, tuttora in qualche caso algoritmi capaci di apprendere ma in uso da tempo o strumenti di biostatistica operabili dai nostri pc, utilizzati da un buon medico, ci offrono risultati competitivi, in termini ad esempio di predittività sul paziente o di comparazione di trattamenti».

Come viene in aiuto il regolamento dei cittadini, e tra questi, dei pazienti? «In primo luogo, bandisce sistemi per manipolazione comportamentale e cognitiva si pensi alle trappole del neuromarketing, alle campagne pubblicitarie ma anche elettorali studiate con messaggi subliminali o applicativi capaci di profilare categorie di popolazione, classificarle per razza, religione, orientamento sessuale. In secondo luogo, ai produttori di sistemi capaci di apprendere, chiede di spiegare come li alimentano e come si producano le interazioni con gli utenti. Impone poi di informare sempre gli “utenti-umani” che stanno interagendo con un sistema IA. Le imprese devono tenere registrazioni così che si possano identificare le responsabilità di singoli operatori in caso di dispute o danni. C’è un preciso timore non solo verso il software ingegnerizzato dai sistemisti, o verso gli hardware che devono essere idonei e, potendo, non troppo energivori, ma anche verso le categorie di esperti (medici, ingegneri, militari) chiamate a dialogare con questi sistemi e ad alimentarli. Un sistema intelligente non è in grado di “ripulirsi” da solo delle informazioni errate, incomplete, inesatte con cui è stato programmato, né da altre informazioni introdotte da chi dialogando ha condizionato il suo apprendimento, anche volontariamente (non escluso in questo caso un altro sistema di IA “ostile”)».

Quali ricadute ha il regolamento per le nostre istituzioni, sanitarie e di ricerca? «Tutti i governi saranno tenuti a “mettersi dalla parte” della gente emanando norme che tutelino da discriminazioni, diseguaglianze (anche d’accesso ai sistemi), meccanismi di manipolazione. Le norme che vareremo nei singoli stati membri nei prossimi 2-3 anni andranno coordinate per non essere troppo difformi. C’è il rischio che si legiferi per lo più in base alle caratteristiche degli applicativi proposti dalle imprese o che si crei burocrazia con regole e controregole. In Italia il governo sta promuovendo strumenti per promuovere la sicurezza dei cittadini, e coordina con efficacia le politiche dell’Agenas, e i suoi progetti per la medicina territoriale, l’Istituto superiore di sanità, l’Agid, l’Agenzia per la Cybersicurezza. Come società scientifica la SIT è chiamata a scrivere linee guida e standard per l’IA come per la telemedicina, e sta portando all’attenzione delle istituzioni contenuti di documenti dei gruppi di studio internazionali come quelli di Prisma-AI ed altri di prossima uscita. Dal mio personale punto di vista, percepisco il rischio che gli enti regolatori non distinguano tra sistemi di intelligenza artificiale e sistemi di diverso tipo, a svantaggio di entrambi e della salute dei cittadini. Se da ricercatore auspico che i paesi UE investano in ricerche sul fronte tecnologico gli applicativi andrebbero selezionati in base alla loro capacità di raggiungere risultati con il minor spreco energetico– come medico sostengo ricerche per selezionare le situazioni dove l’IA può darci alto valore aggiunto. Che oggi non sono infinite. Per contro, gli algoritmi tradizionali non sempre vanno messi in secondo piano. Faccio un esempio: due terzi dei ricoveri per reazioni avverse dei farmaci si eviterebbero con programmi, esistenti, che incrociano i dati disponibili sulle reazioni avverse di tutti i principi attivi. Governabili da un sistema non potentissimo, questi programmi, se affidati ai medici, abbatterebbero gran parte delle prescrizioni sbagliate e salverebbero vite. Simili sistemi “non-IA”, affidabili e relativamente poco costosi, portati con fatica all’attenzione istituzionale, sono di grande attualità. Ma il boom dell’AI può favorire l’interesse ad accantonarli».

Un cenno al boom dei sondaggi… «In questa fase sarebbe ottimale sondare gli italiani sul loro stato di conoscenza dell’IA, con quesiti validati e questionari coerenti. Non discuto quelli che leggo sui giornali, fatti da enti autorevoli. Ma ricordo che quante più sono le domande sottoposte ad un campione, e quanto più si cerca di stratificare quel campione per sesso, età, provenienza geografica, tanto più avrebbe bisogno di essere ampio per offrire risultati statisticamente significativi nelle differenti categorie. La domanda successiva viene spontanea: come si concilierebbe un campione così ampio, auspicabilmente di migliaia di intervistati, con un tema nuovo quale è l’intelligenza artificiale che fin qui solo una piccola parte degli italiani ha utilizzato?».

Mauro Miserendino

TAG: INTELLIGENZA ARTIFICIALE

Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:

Seguici su Youtube! Seguici su Linkedin! Segui il nostro Podcast su Spotify!

Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!

POTREBBERO INTERESSARTI ANCHE

28/04/2025

La Distribuzione ospedaliera si conferma un asse strategico su cui PHOENIX Pharma Italia intende continuare a costruire la propria crescita e che conferma la validità di un modello che punta...

28/04/2025

Il Comitato per i medicinali per uso umano dell'Agenzia europea per i medicinali (Ema) ha raccomandato l'approvazione condizionata di Duvyzat® (givinostat) per il trattamento della distrofia...

28/04/2025

Il Tar dell'Emilia-Romagna ha accolto l'istanza di sospensiva della consigliera regionale Valentina Castaldini per ottenere la sospensione delle delibere regionali che permettono il suicidio...

28/04/2025

“Una tutela rigorosa della proprietà intellettuale è fondamentale per gli investimenti che nella farmaceutica significano nuovi trattamenti. Un suo indebolimento rappresenta invece un danno per i...

 
Resta aggiornato con noi!

La tua risorsa per news mediche, riferimenti clinici e formazione.

 Dichiaro di aver letto e accetto le condizioni di privacy

©2025 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Via Spadolini, 7 - 20141 Milano (Italy)

Top