Cosa cambia per chi usa l’Intelligenza Artificiale in sanità: in vigore il nuovo Regolamento

Cosa cambia per chi usa l’Intelligenza Artificiale in sanità: in vigore il nuovo Regolamento

Dal 2 agosto 2025, entra in vigore il nuovo AI Act (Regolamento UE 2024/1689), che introduce obblighi vincolanti per l’utilizzo dei sistemi di Intelligenza Artificiale in ambito sanitario, con particolare attenzione a quelli considerati “ad alto rischio” e ai cosiddetti GPAI (Generative Public AI, come i modelli linguistici).

Una panoramica dettagliata delle ricadute per medici, cliniche, ospedali e sviluppatori è stata offerta dall’Avv. Nadia Martini, Head of Data Protection, Cybersecurity & Innovation di Rödl and Partner, in un contributo pubblicato su Quotidiano Sanità.

Ecco cosa comporta il nuovo quadro normativo

1. Obblighi per i fornitori di GPAI

Se la tua struttura utilizza o integra modelli generativi (ad es. chatbot, strumenti diagnostici automatizzati), sono richieste:

  • documentazione dettagliata su architettura e dataset di addestramento;
  • descrizione delle misure adottate contro bias e contenuti illeciti;
  • garanzie di conformità al diritto UE, inclusi GDPR e sicurezza.

2. Sistemi ad alto rischio: più responsabilità

Tutti i sistemi IA che influenzano diagnosi, terapie o processi decisionali clinici sono classificati ad alto rischio. Per usarli, serviranno:

  • valutazioni di impatto ex art. 35 GDPR;
  • supervisione umana costante;
  • sistemi di tracciabilità delle decisioni;
  • gestione degli incidenti.

3. Formazione e consapevolezza

L’AI Act impone anche alle strutture sanitarie di formare il personale medico e tecnico sull’uso sicuro e consapevole dell’IA.

Sanzioni: fino a 35 milioni di euro o al 7% del fatturato globale

Le violazioni possono comportare sanzioni pesantissime. Secondo quanto ricordato dall’Avv. Martini, l’AI Act introduce un regime sanzionatorio ispirato a quello del GDPR, con cifre che arrivano fino a:

  • 35 milioni di euro
  • 7% del fatturato mondiale annuo

Cosa puoi fare con OKPrivacy

Con il nostro servizio e attraverso i nostri partner supportiamo strutture sanitarie e operatori del settore nella gestione della compliance AI & privacy:

  • mappatura e classificazione dei sistemi IA utilizzati;
  • redazione di DPIA specifiche per IA ad alto rischio;
  • definizione di policy interne e procedure di supervisione;
  • formazione del personale medico, tecnico e direzionale.

L’IA può migliorare la sanità. Ma senza sicurezza e trasparenza, è un rischio.
👉 Contattaci oggi per valutare lo stato di conformità della tua struttura.

Torna al blog