sanità
21 Dicembre 2023 I 27 paesi dell’Unione Europea, tra cui il nostro, avranno un indirizzo comune sull’intelligenza artificiale. La settimana scorsa l’Europarlamento, la Commissione e il Consiglio hanno trovato un compromesso che regola la materia. In Europa non avremo nessun Grande Fratello
I 27 paesi dell’Unione Europea, tra cui il nostro, avranno un indirizzo comune sull’intelligenza artificiale. La settimana scorsa l’Europarlamento, la Commissione e il Consiglio hanno trovato un compromesso che regola la materia. In Europa non avremo nessun Grande Fratello, non useremo sistemi di “punteggio sociale”, non approveremo modelli conversazionali capaci di manipolare comportamenti. Il riconoscimento biometrico è stato ammesso solo in caso di minaccia terroristica, ricerca di vittime e lotta a crimini gravi ma sarà prima autorizzato dal giudice. I governi dei paesi membri chiedevano meno restrizioni, ma un po’ a sorpresa un documento di sessanta ricercatori si è schierato sulla linea del Parlamento affinché restassero dei paletti –ad esempio sui sistemi di riconoscimento delle emozioni, il cui uso sarà quasi bandito– e sul loro uso, e l’intesa è arrivata. Il testo va ora limato ed approvato entro primavera 2024, e sarà in vigore nel 2026.
Nel mondo della ricerca, si profila la creazione di regulatory sandbox, “nicchie” con meno vincoli. Negli altri settori economici la questione è irreggimentare i sistemi di intelligenza artificiale. L’AI Act divide i “foundational models” tra prodotti più “alla mano” e potenti chatbot come quelle dei colossi OpenAi (Chat-GPT), Google (LaMDA e Google Bard), Meta. Questi ultimi sono già regolati da codici di condotta volontari determinati dai produttori, ma –almeno nel caso di Open AI, il sistema di calcolo più potente– l’UE dovrebbe imporre ulteriori regole e richieste preventive di condivisione della documentazione. I produttori dovranno spiegare come addestrano gli algoritmi, con quali materiali, e -contro truffe o fake – e dovranno sempre specificare se contenuti informativi sono stati prodotti da sistemi “non umani”. La Commissione avrà un AI Office cui comunicare eventuali incidenti. Le sanzioni per il mancato rispetto delle regole vanno dall’1,5 al 7% del fatturato globale delle aziende coinvolte. Le disposizioni entreranno in vigore a scaglioni: dopo 6 mesi le regole sugli utilizzi proibiti, dopo un anno quelle sui “colossi AI”, infine le altre. I produttori potranno adeguarsi all’AI Act prima del 2026 sottoscrivendo un “AI Pact”.
L’AI Act si inserisce in un dibattito globale vivace, e incrocia la traiettoria dei sistemi sanitari nazionali ed assicurativi. In materia di uso dei dati sensibili, a primavera il Garante italiano della privacy ha bloccato per qualche giorno Chat GPT, chiedendo che i pazienti siano sempre informati quando dialogano con sistemi IA, e sollecitando campagne per far capire come funzionano questi sistemi di apprendimento. Negli algoritmi clinici, ha anche chiesto, l’ultima parola sulla decisione deve averla il personale sanitario. A livello di gestione della sanità, il Garante ha ricordato come negli USA un sistema di IA usato per stimare il rischio sanitario di oltre 200 milioni di americani si basasse sulla spesa sanitaria media individuale e in tal modo minimizzasse il rischio delle fasce meno agiate – in particolare pazienti afro-americani – che avendo meno disponibilità non accedevano alle cure.
Quest’anno anche l’Organizzazione Mondiale della Sanità ha emanato due documenti che hanno impattato sulle decisioni di Bruxelles: Ethics and Governance of Artificial Intelligence for Health indica ai governi come legiferare per non creare disparità d’accesso alle cure in sanità che utilizzino sistemi IA; e Regulatory Consideration On Artificial Intelligence For Health, sei raccomandazioni sui criteri per approvare sistemi IA sicuri. Le norme nazionali e sovranazionali dovrebbero spiegare all’utente chi sono i produttori e come addestrano le macchine; imporre referenti umani a controllo e spiegazione dei processi e a convalida dei dati; istituire organismi notificati per certificare sia la macchina sia la qualità dei dati; garantire la tutela dei dati sensibili dell’utenza e favorire una rete tra informatici, produttori, enti regolatori, professionisti sanitari, pazienti per garantire che la macchina rispetti deontologia e legge. Su quest’ultimo punto al Congresso degli odontoiatri AIO è stato presentato un sondaggio del Council of European Dentists, organo consulente di Bruxelles, che evidenzia la carenza di controlli sugli apparecchi ortodontici fai-da-te. La questione riguarda al momento allineatori non prescritti dal dentista e consegnati a casa sulla base di misure prese a volte dallo stesso paziente o comunque senza il passaggio dal professionista sanitario: il rischio che un “cervellone” generi a breve dispositivi e articoli scientifici senza (teoricamente) alcuna base etica è concreto.
Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:
Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!
POTREBBERO INTERESSARTI ANCHE
20/01/2025
Negli Usa i controlli sui prezzi dei farmaci hanno costituito una parte centrale dell'Inflation Reduction Act di Biden e la sua amministrazione ha evidenziato i 7,5 miliardi di dollari di risparmi...
20/01/2025
Paola Bogani è stata nominata Head of Commercial Pediatric Oncology/Rare Diseases presso Norgine. Un incarico che rafforza ulteriormente rafforzamento l’impegno di Norgine nel migliorare la vita...
20/01/2025
È stato sottoscritto un accordo tra Alleanza Contro il Cancro, la Rete Oncologica Nazionale del Ministero della Salute, e Farmindustria. Si tratta di un Protocollo d'Intesa biennale che si pone...
20/01/2025
Il ministro delle Imprese e del Made in Italy fa sapere gli obiettivi dei prossimi mesi per garantire continuità dell'attività e dei livelli occupazionali attraverso un preciso cronoprogramma
©2025 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Via Spadolini, 7 - 20141 Milano (Italy)