E’ sempre più diffusa la pratica di caricare referti medici, radiografie o analisi cliniche su piattaforme di Intelligenza Artificiale generativa per chiedere interpretazioni o persino diagnosi sul proprio stato di salute. Il Garante per la Protezione dei Dati Personali, con un comunicato stampa del 30 luglio 2025, ha lanciato un chiaro allarme: questa abitudine può mettere seriamente a rischio non solo la privacy dei pazienti, ma anche la loro salute.
I dati sanitari
I dati sanitari hanno una tutela rafforzata perché rientrano nelle categorie particolari di dati personali disciplinate dall’art. 9 del GDPR. Si tratta di informazioni che possono rivelare aspetti intimi e delicati della vita di una persona e che, proprio per questo, sono soggette a un regime giuridico più rigoroso rispetto agli altri dati personali.
I rischi per la privacy
Analizzando in particolare i rischi inerenti la privacy, vanno considerati in particolare i seguenti aspetti:
- Conservazione e utilizzo improprio dei dati: una volta caricati online, non sempre è chiaro se i dati verranno cancellati, conservati per fini di addestramento o condivisi con terzi. Le informazioni altamente personali possono finire in dataset globali, difficilmente controllabili. Alcuni servizi permettono di scegliere, ma è necessario leggere attentamente le informative privacy.
- Re-identificazione: anche dati apparentemente anonimizzati, possono talvolta essere ricollegati all’individuo se incrociati con altre banche dati.
- Mancanza di trasparenza: la mancanza di trasparenza nei processi decisionali riduce la fiducia dei pazienti.
- Cyberattacchi e furti di identità: anche le piattaforme di IA sono esposte a data breach e attacchi informatici; i referti medici sono una delle tipologie di dati più ricercate sul mercato nero digitale. Una violazione può portare a frodi, estorsioni o utilizzi illeciti delle informazioni sanitarie.
Si pensi ad un utente che carica la propria TAC toracica su una piattaforma di IA. L’immagine, anche se priva di nome e cognome, contiene metadati che permettono di risalire al paziente. Se quella piattaforma subisse un attacco informatico, il referto potrebbe finire in mano a malintenzionati, con conseguenze su privacy, reputazione e persino assicurazioni.
I rischi per la salute
Quanto, invece, ai rischi inerenti la salute, vanno considerati:
- Errori clinici potenzialmente gravi: le IA generative non sono dispositivi medici certificati. Non sono sottoposte ai rigorosi test richiesti dalla normativa sanitaria e, di conseguenza, le risposte che forniscono possono essere imprecise o addirittura fuorvianti. Un’interpretazione sbagliata può portare un paziente a sottovalutare una patologia grave o, al contrario, a vivere inutilmente nell’ansia di una malattia inesistente.
- Assenza di contesto medico: un algoritmo non conosce la storia clinica completa del paziente, né le sue condizioni specifiche. Le valutazioni risultano quindi parziali e poco affidabili. La normativa europea sull’IA, così come il Consiglio Superiore di Sanità, sottolineano la necessità di una supervisione medica qualificata in tutte le fasi: sviluppo, addestramento, validazione e utilizzo. L’IA può essere un supporto, ma non può sostituire il giudizio clinico.
- Ritardi nelle cure: affidarsi a un referto generato da IA può spingere il paziente a rimandare una visita specialistica, perdendo tempo prezioso nella diagnosi precoce.
- Disuguaglianze: modelli addestrati su dati non rappresentativi possono penalizzare categorie di pazienti (per etnia, età, genere o condizione socio-economica), aumentando il rischio di diagnosi sbagliate o incomplete.
Si pensi ad un paziente con sintomi neurologici che carica una risonanza magnetica cerebrale su un chatbot di IA che restituisce una risposta rassicurante. Convinto di non avere nulla di grave, rimanda la visita neurologica. Dopo settimane, si scopre che soffriva invece di un tumore al cervello diagnosticabile in fase precoce: tempo perso che può costargli cure più invasive e meno efficaci.
Conclusione: l’IA come supporto, non come scorciatoia
L’Intelligenza Artificiale ha un potenziale enorme per la medicina: può aiutare a diagnosticare prima alcune malattie, personalizzare i trattamenti e rendere più efficienti i sistemi sanitari. Tuttavia, il suo utilizzo improprio da parte dei cittadini – ad esempio per ottenere una “diagnosi fai-da-te” caricando un referto online – può rivelarsi un boomerang per privacy e salute.
La regola aurea rimane questa: nessuna IA può sostituire un medico. Le risposte generate da un algoritmo possono al massimo costituire un punto di partenza per un confronto con un professionista qualificato, mai un verdetto clinico.
Fonti:
- Garante Privacy, Comunicato stampa del 30 luglio 2025
- EPRS, Artificial Intelligence in Healthcare
- AI in Healthcare: Risks, Mitigations, Considerations for Data
- Diritto.it – Referti medici e intelligenza artificiale: allarme del Garante sull’uso improprio
- Il Sole 24 Ore, Medical reports: how to protect privacy from AI risks