Login con

sanità

21 Dicembre 2023

Intelligenza artificiale, l’Europa pone più regole con l’AI Act

I 27 paesi dell’Unione Europea, tra cui il nostro, avranno un indirizzo comune sull’intelligenza artificiale. La settimana scorsa l’Europarlamento, la Commissione e il Consiglio hanno trovato un compromesso che regola la materia. In Europa non avremo nessun Grande Fratello


Intelligenza artificiale, l’Europa pone più regole con l’AI Act

I 27 paesi dell’Unione Europea, tra cui il nostro, avranno un indirizzo comune sull’intelligenza artificiale. La settimana scorsa l’Europarlamento, la Commissione e il Consiglio hanno trovato un compromesso che regola la materia. In Europa non avremo nessun Grande Fratello, non useremo sistemi di “punteggio sociale”, non approveremo modelli conversazionali capaci di manipolare comportamenti. Il riconoscimento biometrico è stato ammesso solo in caso di minaccia terroristica, ricerca di vittime e lotta a crimini gravi ma sarà prima autorizzato dal giudice. I governi dei paesi membri chiedevano meno restrizioni, ma un po’ a sorpresa un documento di sessanta ricercatori si è schierato sulla linea del Parlamento affinché restassero dei paletti –ad esempio sui sistemi di riconoscimento delle emozioni, il cui uso sarà quasi bandito– e sul loro uso, e l’intesa è arrivata. Il testo va ora limato ed approvato entro primavera 2024, e sarà in vigore nel 2026.

Nel mondo della ricerca, si profila la creazione di regulatory sandbox, “nicchie” con meno vincoli. Negli altri settori economici la questione è irreggimentare i sistemi di intelligenza artificiale. L’AI Act divide i “foundational models” tra prodotti più “alla mano” e potenti chatbot come quelle dei colossi OpenAi (Chat-GPT), Google (LaMDA e Google Bard), Meta. Questi ultimi sono già regolati da codici di condotta volontari determinati dai produttori, ma –almeno nel caso di Open AI, il sistema di calcolo più potente– l’UE dovrebbe imporre ulteriori regole e richieste preventive di condivisione della documentazione. I produttori dovranno spiegare come addestrano gli algoritmi, con quali materiali, e -contro truffe o fake – e dovranno sempre specificare se contenuti informativi sono stati prodotti da sistemi “non umani”. La Commissione avrà un AI Office cui comunicare eventuali incidenti. Le sanzioni per il mancato rispetto delle regole vanno dall’1,5 al 7% del fatturato globale delle aziende coinvolte. Le disposizioni entreranno in vigore a scaglioni: dopo 6 mesi le regole sugli utilizzi proibiti, dopo un anno quelle sui “colossi AI”, infine le altre. I produttori potranno adeguarsi all’AI Act prima del 2026 sottoscrivendo un “AI Pact”.

L’AI Act si inserisce in un dibattito globale vivace, e incrocia la traiettoria dei sistemi sanitari nazionali ed assicurativi. In materia di uso dei dati sensibili, a primavera il Garante italiano della privacy ha bloccato per qualche giorno Chat GPT, chiedendo che i pazienti siano sempre informati quando dialogano con sistemi IA, e sollecitando campagne per far capire come funzionano questi sistemi di apprendimento. Negli algoritmi clinici, ha anche chiesto, l’ultima parola sulla decisione deve averla il personale sanitario. A livello di gestione della sanità, il Garante ha ricordato come negli USA un sistema di IA usato per stimare il rischio sanitario di oltre 200 milioni di americani si basasse sulla spesa sanitaria media individuale e in tal modo minimizzasse il rischio delle fasce meno agiate – in particolare pazienti afro-americani – che avendo meno disponibilità non accedevano alle cure.

Quest’anno anche l’Organizzazione Mondiale della Sanità ha emanato due documenti che hanno impattato sulle decisioni di Bruxelles: Ethics and Governance of Artificial Intelligence for Health indica ai governi come legiferare per non creare disparità d’accesso alle cure in sanità che utilizzino sistemi IA; e Regulatory Consideration On Artificial Intelligence For Health, sei raccomandazioni sui criteri per approvare sistemi IA sicuri. Le norme nazionali e sovranazionali dovrebbero spiegare all’utente chi sono i produttori e come addestrano le macchine; imporre referenti umani a controllo e spiegazione dei processi e a convalida dei dati; istituire organismi notificati per certificare sia la macchina sia la qualità dei dati; garantire la tutela dei dati sensibili dell’utenza e favorire una rete tra informatici, produttori, enti regolatori, professionisti sanitari, pazienti per garantire che la macchina rispetti deontologia e legge. Su quest’ultimo punto al Congresso degli odontoiatri AIO è stato presentato un sondaggio del Council of European Dentists, organo consulente di Bruxelles, che evidenzia la carenza di controlli sugli apparecchi ortodontici fai-da-te. La questione riguarda al momento allineatori non prescritti dal dentista e consegnati a casa sulla base di misure prese a volte dallo stesso paziente o comunque senza il passaggio dal professionista sanitario: il rischio che un “cervellone” generi a breve dispositivi e articoli scientifici senza (teoricamente) alcuna base etica è concreto.

TAG: INTELLIGENZA ARTIFICIALE

Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:

Seguici su Youtube! Seguici su Linkedin! Segui il nostro Podcast su Spotify!

Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!

POTREBBERO INTERESSARTI ANCHE

15/07/2024

Johnson & Johnson ha voluto promuovere, insieme ai diversi interlocutori del sistema Salute della Regione Lazio, un’iniziativa finalizzata ad individuare proposte in ambito organizzativo e...

15/07/2024

È disponibile in Italia per le persone con diabete, a partire dai 2 anni di età, il sensore FreeStyle Libre 2 Plus. Il sistema, che dura 15 giorni annuncia in una nota Abbott permette, con...

15/07/2024

La Commissione Europea, tramite HERA l'Autorità per la risposta alle emergenze sanitarie, ha presentato alla Critical Medicines Alliance un rapporto tecnico che valuta le vulnerabilità della catena...

15/07/2024

Se interrogati sul futuro della sanità, i giovani italiani puntano i riflettori sul superamento delle differenze, a partire da quelle socioeconomiche ritenute da 7 su 10 ‘under 30’ come la causa...

 
Resta aggiornato con noi!

La tua risorsa per news mediche, riferimenti clinici e formazione.

 Dichiaro di aver letto e accetto le condizioni di privacy

EVENTI

©2024 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Via Spadolini, 7 - 20141 Milano (Italy)

Top