Login con

salute mentale

11 Novembre 2025

Salute mentale, FDA valuta linee guida per l’uso di chatbot basati su IA. Ecco rischi e benefici

Il comitato consultivo della FDA ha discusso potenziali benefici e rischi dei chatbot di supporto psicologico, evidenziando la necessità di solide garanzie di sicurezza e supervisione clinica


ia medicine

La FDA ha avviato il confronto sulle condizioni di sicurezza e sui limiti d’uso dei chatbot basati su intelligenza artificiale nella salute mentale. La Digital Health Advisory Committee ha discusso l’ipotesi di impiego di strumenti generativi per il supporto, la gestione e la possibile diagnosi di disturbi mentali, con l’obiettivo di definire eventuali criteri regolatori.

Secondo i documenti presentati, i dispositivi esaminati includono soluzioni digitali che potrebbero essere utilizzate per diagnosticare, mitigare, trattare o prevenire condizioni di salute mentale. Negli Stati Uniti, circa il 23% degli adulti convive con una malattia mentale, evidenziando una domanda assistenziale crescente e difficilmente coperta dall’attuale disponibilità di professionisti specializzati.

Tra i potenziali benefici indicati figurano un maggior accesso al supporto psicologico, soprattutto nelle aree con minore offerta, e la possibilità di utilizzare i dati raccolti dalle interazioni per migliorare il monitoraggio clinico. Tuttavia, la discussione ha posto l’attenzione su aspetti critici.

Il comitato ha richiamato il rischio di valutazioni cliniche inaccurate, di sovrapposizione con il ruolo professionale degli operatori sanitari e di effetti indesiderati legati all’uso prolungato, come isolamento sociale, peggioramento di ansia e sintomi paranoidei. È stato inoltre sottolineato che l’adozione di tali strumenti non deve aumentare il rischio di esiti gravi, inclusi comportamenti suicidari.

Tra le misure di mitigazione discusse:

  • uso iniziale con supervisione clinica in studi controllati e con follow-up esteso;
  • attivazione rapida del passaggio a un operatore umano;
  • sistemi di monitoraggio in tempo reale degli effetti indesiderati;
  • limitazioni d’uso per bambini e adolescenti.

I membri del comitato hanno evidenziato che mancano evidenze sufficienti per approvare strumenti di autodiagnosi basati su biomarcatori digitali e che saranno necessari ulteriori studi prima di considerare l’uso autonomo da parte dei cittadini.

La riunione rappresenta un primo passo verso la definizione di guardrail regolatori per l’impiego dell’IA nella salute mentale, tema considerato prioritario in relazione al crescente fabbisogno di assistenza nel settore.

Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:

Seguici su Youtube! Seguici su Linkedin! Segui il nostro Podcast su Spotify!

Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!

POTREBBERO INTERESSARTI ANCHE

11/11/2025

Alla conferenza al Teatro Totò, Schillaci e Locatelli richiamano all’urgenza di superare i divari territoriali e rafforzare prevenzione, accesso alle cure e integrazione sociosanitaria

11/11/2025

Alle Scientific Sessions AHA 2025 presentati i dati di due studi registrativi su enlicitide, inibitore orale di Pcsk9: riduzione significativa del C-Ldl e profilo di sicurezza comparabile al placebo

11/11/2025

La ricerca condotta da Idorsia accende i riflettori su una condizione troppo sottovalutata. Gli esperti: non riconoscere il disturbo, può compromettere salute mentale e fisica

11/11/2025

La Società Italiana di Neurologia sollecita che parte dei nuovi fondi per le cure palliative sia destinata ai pazienti neurologici, con parametri specifici di valutazione e applicazione uniforme

©2025 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Via Spadolini, 7 - 20141 Milano (Italy)

Top