Privacy
30 Luglio 2025È sempre più diffusa la prassi di referti medici sulle piattaforme di intelligenza artificiale generativa chiedendo interpretazioni e diagnosi: "un fenomeno allarmante" per il Garante Privacy

L’utilizzo crescente dell’intelligenza artificiale generativa per interpretare referti medici, analisi cliniche e radiografie preoccupa il Garante per la protezione dei dati personali, che lancia un severo monito agli utenti: “Valutate attentamente se condividere i vostri dati sanitari online e non affidatevi ciecamente alle risposte automatiche”. Secondo l’Autorità, si tratta di un fenomeno “allarmante” sotto due profili fondamentali: il rischio di perdita di controllo sui dati personali sanitari e il potenziale pericolo derivante da indicazioni diagnostiche errate fornite da sistemi non certificati come dispositivi medici. “Le soluzioni di intelligenza artificiale disponibili al pubblico non sono progettate per fornire diagnosi mediche e non sono sottoposte ai necessari test e controlli previsti dalla normativa di settore”, si legge nella nota ufficiale.
Il Garante invita tutti gli utenti a leggere con attenzione le informative sulla privacy pubblicate dai fornitori di IA generativa. Spesso, infatti, i dati caricati potrebbero essere conservati e utilizzati per l’addestramento degli algoritmi, salvo diverse scelte esplicite da parte dell’utente. “È fondamentale comprendere che referti e dati clinici caricati online potrebbero non essere immediatamente cancellati ma conservati per finalità diverse, anche commerciali”, avverte l’Autorità. Alcune piattaforme consentono agli utenti di gestire la destinazione dei propri dati, ma la consapevolezza e il controllo restano ancora troppo deboli.
Il Garante ribadisce un principio chiave del Regolamento europeo sull’IA e del parere espresso dal Consiglio Superiore di Sanità: l’elaborazione di dati sanitari tramite sistemi di intelligenza artificiale deve sempre prevedere un’intermediazione umana qualificata. “La supervisione umana è essenziale in ogni fase del ciclo di vita di un sistema di IA: dallo sviluppo all’addestramento, fino alla sua validazione e utilizzo”, sottolinea il Garante. L’assenza di un controllo professionale non solo mina l’attendibilità delle risposte, ma può incidere direttamente sulla salute delle persone, se le indicazioni errate influenzano scelte terapeutiche o diagnostiche. L’Autorità ricorda che già nell’ottobre 2023 aveva pubblicato un decalogo per l’uso dell’IA nei servizi sanitari nazionali (doc. web n. 9938038), in cui venivano indicati i requisiti fondamentali da rispettare per garantire la trasparenza, la sicurezza e la liceità del trattamento dei dati sanitari. Inoltre, nel maggio 2024 il Garante ha diffuso un documento dedicato ai rischi legati al web scraping, cioè alla raccolta massiva di dati personali disponibili online per l’addestramento dei modelli generativi di IA (doc. web n. 10020334).
Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:
Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!
POTREBBERO INTERESSARTI ANCHE
06/02/2026
Negli Stati Uniti una nuova legge riforma il ruolo dei pharmacy benefit manager
06/02/2026
La Conferenza delle Regioni ha consegnato al ministro della Salute un documento con proposte sul personale del SSN
06/02/2026
L’azienda di telemedicina Ro registra un forte aumento di clientela, spinta dalla comodità del farmaco orale e da un prezzo iniziale più accessibile
06/02/2026
È il piano più grande mai realizzato dall’azienda nel Paese asiatico e rafforzerà la produzione e la ricerca.
©2026 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Viale Enrico Forlanini 21 - 20134 Milano (Italy)