Cookie Consent by Free Privacy Policy Generator
Studio Legale MP - Verona logo
Diagnosi con algoritmi: responsabilità medica e rischi legali - Studio Legale MP - Verona

L’uso dell’intelligenza artificiale nella diagnostica medica solleva una domanda cruciale: chi risponde se l’algoritmo sbaglia? Un’analisi dei doveri del medico, della responsabilità dei produttori di software e delle tutele legali per i pazienti alla luce di nuove norme e sentenze

 

Diagnosi con l’IA: opportunità e dilemmi di responsabilità

“Da un grande potere derivano grandi responsabilità”. Questo celebre monito calza a pennello per descrivere la sfida odierna in ambito sanitario: l’intelligenza artificiale (IA) offre al medico un potere diagnostico ampliato e rapidissimo, ma al contempo impone nuove responsabilità. I moderni algoritmi di diagnostica medica possono analizzare enormi quantità di dati clinici, riconoscere schemi complessi e supportare l’identificazione di patologie in modo più precoce ed accurato di quanto fosse possibile in passato. Di fronte a queste straordinarie potenzialità, però, emergono dilemmi legali: chi risponde se l’algoritmo sbaglia diagnosi? Il medico può fidarsi ciecamente del responso automatizzato o deve comunque verificare e usare prudenza? E ancora, in caso di errore, la colpa è del professionista, della struttura sanitaria o di chi ha sviluppato il software?

Per comprendere questi interrogativi, occorre inquadrare come il diritto italiano (ed europeo) disciplina l’uso dell’IA in sanità e come la giurisprudenza recente sta affrontando i primi casi di malasanità digitale. Fin da ora si può anticipare un principio fondamentale: il medico rimane il perno centrale del processo diagnostico e terapeutico, anche quando utilizza strumenti avanzati. L’uomo – almeno ad oggi – è considerato un supervisore indispensabile dell’algoritmo, colui che deve interpretare e filtrare le indicazioni fornite dalla macchina. Questo significa che affidarsi all’IA non esonera il professionista dai suoi doveri di diligenza, perizia e prudenza verso il paziente. In altri termini, l’algoritmo è un ausilio, non un sostituto della decisione clinica: la responsabilità ultima resta in capo all’essere umano.

 

Il quadro normativo: IA come dispositivo medico e obblighi per i professionisti

Dal punto di vista normativo, un sistema di intelligenza artificiale utilizzato per formulare diagnosi rientra tra i dispositivi medici. Ciò deriva dalla normativa europea (Direttiva 85/374/CEE e Regolamento UE 2017/745) recepita in Italia, secondo cui software e strumenti AI-based impiegati in ambito clinico devono rispettare stringenti requisiti di sicurezza ed efficacia. In particolare, la legge considera questi algoritmi come potenziali prodotti pericolosi se difettosi: si applicano quindi le regole sulla responsabilità da prodotto difettoso, che attribuiscono al produttore l’obbligo di immettere in commercio sistemi sicuri e privi di difetti che possano causare danni ai pazienti. In caso contrario, il produttore (o distributore) può essere chiamato a rispondere dei danni derivanti dal malfunzionamento del software diagnostico.

Accanto a ciò, va menzionato il nascente Regolamento UE sull’Intelligenza Artificiale (c.d. “AI Act”), approvato in sede europea e di prossima attuazione, che classifica i sistemi di IA per diagnosi medica tra quelli “ad alto rischio”. Questo comporterà obblighi ulteriormente rafforzati in termini di trasparenza, gestione del rischio e controlli periodici sulle prestazioni dell’algoritmo. L’obiettivo del legislatore è garantire che l’IA in sanità sia utilizzata in modo eticamente e tecnicamente affidabile, minimizzando errori e bias e assicurando sempre la possibilità di comprensione e intervento umano.

Sul piano interno, resta fermo il dovere del medico di attenersi alle linee guida e alle buone pratiche clinico-assistenziali accreditate dalla comunità scientifica (come previsto dalla Legge Gelli-Bianco, L. 24/2017). L’art. 590-sexies del Codice Penale (introdotto dalla stessa legge) stabilisce che il professionista sanitario, che si attiene a linee guida adeguate al caso concreto, non risponde penalmente per colpa lieve. Ma attenzione: questo principio non implica un’esenzione automatica da responsabilità quando si usano strumenti di IA. Infatti, anche seguire pedissequamente le indicazioni di un algoritmo senza esercitare un giudizio critico può costituire negligenza o imperizia, soprattutto se la situazione clinica richiedeva valutazioni ulteriori. Cass. pen., Sez. III, sent. n. 40316/2024 ha chiarito proprio che il rispetto formale di protocolli e raccomandazioni standard non esonera il medico dalla colpa grave se non ha considerato i fattori di rischio specifici del caso concreto. In quella pronuncia (riguardante un monitoraggio omesso durante un travaglio complesso), la Corte di Cassazione ha condannato il sanitario che si era attenuto alle linee guida senza adottare cautele aggiuntive imposte dalla situazione particolare. Questo orientamento, applicato per ora alle linee guida tradizionali, è destinato a valere a maggior ragione per gli algoritmi: il medico deve usare l’IA con senso critico, adattandone l’uso alle esigenze del paziente e intervenendo attivamente se il responso automatizzato appare incompleto o non adeguato.

 

Algoritmi diagnostici difettosi: responsabilità del produttore e della struttura sanitaria

Un algoritmo diagnostico può compiere errori per varie ragioni: dataset incompleti, bias nei dati di addestramento, bug o difetti di programmazione, oppure situazioni cliniche atipiche non contemplate dal modello. Se l’errore deriva da un difetto intrinseco del software, potrebbe configurarsi una responsabilità diretta del produttore per prodotto difettoso. In tal caso il paziente danneggiato può agire per ottenere il risarcimento provando il malfunzionamento dell’IA (ad esempio un referto completamente errato rispetto ai dati inseriti) e il nesso con il danno subito. Va detto che l’attuale disciplina dei prodotti difettosi non era pensata per l’IA e presenta alcune criticità: come dimostrare il “difetto” di uno strumento che apprende autonomamente e funziona come una sorta di “scatola nera” non sempre comprensibile dall’esterno? Proprio per questo sono allo studio riforme che adattino le norme di responsabilità civile ai sistemi di intelligenza artificiale, prevedendo ad esempio un’inversione dell’onere della prova in capo al produttore in caso di danni causati dall’IA.

Anche la struttura sanitaria (ospedale o clinica) che adotta l’algoritmo potrebbe avere una quota di responsabilità. La struttura è tenuta infatti a scegliere strumenti approvati e affidabili, a mantenerli aggiornati e funzionanti, nonché a formare adeguatamente il personale sull’uso corretto. Se un ospedale utilizza un software diagnostico senza aver svolto le dovute verifiche o senza predisporre protocolli per gestire i possibili errori, potrebbe rispondere in sede civile per culpa in organizzazione. Si pensi a un algoritmo che suggerisca terapie errate per mancanza di aggiornamenti: l’ente sanitario che non ha aggiornato il sistema o non ha previsto un doppio controllo umano potrebbe dover risarcire il paziente danneggiato. Inoltre, qualora un medico dipendente commetta un errore (anche derivato dall’aver seguito un’indicazione sbagliata dell’IA), la struttura sanitaria risponde in solido come datore di lavoro ex art. 2049 c.c., salvo poi rivalersi eventualmente sul produttore del software se vi è un difetto tecnico.

 

Cosa dicono le ultime sentenze: errori diagnostici tra vecchi e nuovi scenari

Al momento non risultano ancora pronunce della Corte di Cassazione dedicate esclusivamente all’uso dell’IA in diagnosi medica, segno che la questione è davvero all’avanguardia. Tuttavia, esistono recenti sentenze in ambito di responsabilità medica che offrono principi applicabili anche ai casi con algoritmi. Abbiamo già citato la Cassazione penale n. 40316/2024, che ha sancito l’importanza di non affidarsi in modo acritico ai protocolli standard quando la situazione clinica richiede maggiore attenzione: un monito valido anche per chi utilizza strumenti automatizzati.

Un altro tema cruciale è l’impatto di un errore diagnostico sul paziente, anche in termini di ritardo nelle cure. In passato si riteneva che, se l’errore non aggravava la patologia (ad esempio perché la malattia era incurabile dall’inizio), il medico potesse andare esente da responsabilità penale. Oggi la tendenza è diversa: Cass. pen., Sez. IV, sent. n. 5315/2025 ha affermato che ogni condotta colposa che prolunghi i tempi di guarigione o ritardi trattamenti necessari ha rilievo penale, anche se non provoca un peggioramento definitivo della lesione. In quel caso, dei sanitari non avevano diagnosticato in tempo una frattura vertebrale, posticipando di 30 giorni la terapia: la Cassazione ha annullato l’assoluzione evidenziando che il ritardo diagnostico, di per sé, ha causato una dilatazione ingiustificata della malattia e va sanzionato. Questo principio sarebbe applicabile, ad esempio, se un algoritmo non rileva subito una condizione critica e il paziente subisce un danno per il tempo perso: il fatto che l’IA “non abbia peggiorato la malattia” non esclude la responsabilità, poiché ha ritardato la cura.

Sul fronte civilistico, è significativa una pronuncia che tocca anche il tema del consenso informato in caso di errore diagnostico. La Corte d’Appello dell’Aquila, sent. n. 25/2025 ha riconosciuto la responsabilità di un’azienda sanitaria per un grave errore di diagnosi che aveva portato all’asportazione non necessaria di un rene (nefroureterectomia) in un paziente. In realtà il tumore sospettato non c’era – si trattava solo di una lesione benigna – ma il paziente non era stato informato adeguatamente dei rischi e delle alternative prima dell’intervento. La Corte ha condannato la struttura a un risarcimento di oltre 120.000 euro, rilevando sia la colpa diagnostica (aver scambiato una displasia per un carcinoma) sia la violazione del diritto all’autodeterminazione del paziente. Questo caso, pur non riguardando l’uso di IA, sottolinea due aspetti attualissimi: da un lato, anche con tecnologie avanzate resta fondamentale un corretto rapporto medico-paziente, fatto di spiegazioni chiare e consenso informato; dall’altro, l’errore diagnostico produce conseguenze risarcibili non solo per l’intervento inutile subìto, ma anche per l’angoscia e lo shock di chi scopre che una grave diagnosi era sbagliata. In futuro, se un algoritmo generasse falsi positivi o falsi negativi, causando interventi superflui o mancate cure, queste stesse categorie di danno (danno biologico, morale, violazione dell’autodeterminazione) potrebbero essere invocate in giudizio.

In sintesi, la giurisprudenza più recente ribadisce concetti che valgono anche nell’era digitale: il paziente ha diritto a diagnosi corrette e tempestive, e il medico – coadiuvato o meno da un computer – ha l’obbligo di mettere in campo tutta la diligenza possibile per evitare errori. L’uso di strumenti sofisticati non diminuisce le aspettative di cura, anzi alza l’asticella: la tecnologia deve servire a migliorare gli esiti, non a creare nuove fonti di rischio. Come recita un antico adagio latino, primum non nocere – per prima cosa, non arrecare danno.

 

Come tutelarsi: precauzioni e rimedi in caso di errore “digitale”

Per i pazienti, il messaggio è che un errore medico rimane tale anche se vi ha contribuito un algoritmo. Chi subisce un danno da una diagnosi sbagliata (o tardiva) ha diritto di agire legalmente per ottenere giustizia e risarcimento. In concreto, è importante raccogliere tutte le prove: referti medici, stampe o screenshot dei risultati dell’IA, cartella clinica con annotazioni dei medici, eventuali certificazioni del dispositivo utilizzato. Sarà poi compito di consulenti tecnici appurare se l’errore è dipeso da negligenza del medico nell’uso dello strumento o da un malfunzionamento intrinseco di quest’ultimo. In ogni caso, il paziente non deve sentirsi scoraggiato dalla complessità tecnica: il diritto offre strumenti per far valere le proprie ragioni, coinvolgendo se necessario sia il professionista sia la struttura sanitaria e il produttore.

Dal lato dei medici e delle strutture sanitarie, per evitare contenziosi è fondamentale adottare un approccio prudente e trasparente verso l’IA. Ciò significa: utilizzare solo algoritmi validati e approvati, mantenerli aggiornati, conoscere i limiti del sistema (sapere ad esempio in quali situazioni l’IA tende a essere meno accurata) e soprattutto non rinunciare mai alla supervisione umana. Il medico deve spiegare al paziente quando sta impiegando un supporto algoritmico e deve integrare quel responso con la propria valutazione clinica. In caso di dubbio, prevale il principio di cautela: meglio un esame in più o un consulto specialistico, piuttosto che affidarsi ciecamente a un output automatizzato. Anche la documentazione è importante: registrare in cartella clinica le motivazioni delle scelte terapeutiche, incluso come si è utilizzato (o scartato) il suggerimento dell’IA, può essere decisivo per dimostrare di aver agito secondo perizia e diligenza.

In prospettiva, vedremo probabilmente nascere polizze assicurative specifiche per la responsabilità da algoritmi in sanità, nonché protocolli standardizzati per l’impiego sicuro dell’IA in corsia. Ma finché queste tecnologie saranno strumenti nelle mani del medico, varrà sempre il concetto che “l’ultima parola spetta all’uomo”. L’IA è un mezzo potentissimo e utile, ma non è infallibile: il bravo professionista sa quando seguirla e quando invece affidarsi alla propria esperienza, perché in gioco c’è la salute della persona.

 

Conclusioni

La rivoluzione dell’intelligenza artificiale applicata alla medicina sta già cambiando il modo di curare, ma non cambia – né diminuisce – la responsabilità verso il paziente. Se hai vissuto un caso di diagnosi errata o ritardata in ambito sanitario, magari legato all’uso di strumenti tecnologici, è essenziale agire tempestivamente per far valere i tuoi diritti.

Hai bisogno di assistenza o di un preventivo?

  • 20 settembre 2025
  • Marco Panato

Autore: Avv. Marco Panato


Avv. Marco Panato -

Avv. Marco Panato, avvocato del Foro di Verona e Dottore di Ricerca in Diritto ed Economia dell’Impresa – Discipline Interne ed Internazionali - Curriculum Diritto Amministrativo (Dipartimento di Scienze Giuridiche, Università degli Studi di Verona).

E' autore di pubblicazioni scientifiche in materia giuridica, in particolare nel ramo del diritto amministrativo. Si occupa anche di docenza ed alta formazione.