Cookie Consent by Free Privacy Policy Generator
Studio Legale MP - Verona logo

Cerca nel sito

Inserisci una parola chiave per iniziare la ricerca

Sistemi IA ad alto rischio: obblighi e responsabilità - Studio Legale MP - Verona

AI Act, Legge 132/2025 e D.Lgs. 231/2001: la compliance integrata che le imprese italiane non possono più rinviare

 

Con la scadenza del 2 agosto 2026 che incalza, le imprese italiane che adottano sistemi di intelligenza artificiale classificati ad alto rischio si trovano di fronte a un quadro normativo stratificato e severo: il Regolamento UE 2024/1689 (AI Act), la Legge nazionale 23 settembre 2025 n. 132 e il D.Lgs. 231/2001 convergono in un sistema integrato di compliance che impone obblighi tecnici, organizzativi e documentali complessi. L'articolo analizza le criticità operative più rilevanti, i profili di responsabilità dell'ente e le aree di rischio concreto, con particolare attenzione al contesto delle PMI venete.

«Quidquid agis, prudenter agas et respice finem» — qualunque cosa tu faccia, agisci con prudenza e considera le conseguenze. Il monito, tramandato dai manoscritti medievali dei Gesta Romanorum, non ha mai trovato applicazione più pertinente di quella che impone oggi il quadro normativo europeo sull'intelligenza artificiale alle imprese che operano nel mercato interno dell'Unione.

Come scriveva Franz Kafka ne Il Processo, «qualcuno doveva aver calunniato Josef K., perché senza che avesse fatto nulla di male, una mattina fu arrestato». La metafora è suggestiva: molte imprese italiane scoprono oggi di essere già soggette a obblighi vincolanti in materia di intelligenza artificiale senza averne avuto piena consapevolezza, esposte a un rischio sanzionatorio che nessuno ha formalmente annunciato loro, ma che la norma ha fatto scattare in modo automatico.

Il quadro normativo: AI Act, Legge 132/2025 e il doppio livello di compliance

Il Regolamento (UE) 2024/1689, noto come AI Act, è stato pubblicato sulla Gazzetta Ufficiale dell'Unione Europea il 12 luglio 2024 ed è entrato in vigore il 1° agosto dello stesso anno. La sua struttura applicativa è progressiva: i divieti relativi alle pratiche di IA vietate, le definizioni e le disposizioni in materia di AI literacy trovano applicazione dal 2 febbraio 2025, mentre le norme in materia di governance e gli obblighi riferiti ai modelli di IA per finalità generali sono divenuti applicabili dal 2 agosto 2025.

La scadenza che concentra oggi l'attenzione operativa è quella del 2 agosto 2026: per le aziende che utilizzano sistemi ad alto rischio, entrano in vigore gli obblighi completi dell'Allegato III, tra cui documentazione tecnica, valutazione di conformità, registrazione nel database europeo e monitoraggio post-market.

Sul versante italiano, il quadro è ulteriormente articolato. Il quadro normativo è integrato dalla Legge 23 settembre 2025 n. 132 (in vigore dal 10 ottobre 2025), che recepisce i principi dell'AI Act, e dal Decreto Ministeriale n. 180 del 17 dicembre 2025 del Ministero del Lavoro e delle Politiche Sociali, che stabilisce le linee guida per l'adozione responsabile dell'IA nel contesto lavorativo.

Importante segnalare che il quadro è ancora in evoluzione a livello europeo. La Commissione europea ha pubblicato il Digital Omnibus il 19 novembre 2025, proponendo di rinviare la scadenza di compliance per i sistemi ad alto rischio dal 2 agosto 2026 al 2 dicembre 2027. Il secondo trilogo politico tra Parlamento europeo, Consiglio UE e Commissione del 28 aprile 2026 si è concluso senza accordo. Se l'Omnibus non è formalmente adottato prima del 2 agosto 2026, le disposizioni originali dell'AI Act, inclusi gli obblighi sui sistemi ad alto rischio, si applicheranno da quella data come scritte. La prudenza operativa impone dunque di pianificare la compliance assumendo il 2 agosto 2026 come termine vincolante, senza fare affidamento su rinvii ancora incerti.

Quanto alla diffusione dell'IA nelle imprese italiane, i dati ISTAT del dicembre 2025 fotografano un'accelerazione sorprendente: il 16,4% delle imprese italiane con almeno 10 addetti utilizza oggi almeno una tecnologia di intelligenza artificiale. Era l'8,2% nel 2024, il 5% nel 2023: un raddoppio netto in dodici mesi, certificato dall'ISTAT nel dicembre 2025. Questo significa che un numero significativo di imprese opera già con sistemi che potrebbero ricadere nella categoria ad alto rischio, spesso senza esserne consapevoli.

I sistemi ad alto rischio: identificazione, obblighi tecnici e profili di responsabilità integrata

L'Allegato III del Regolamento individua le otto aree in cui un sistema di IA è qualificato ad alto rischio. Si tratta della categoria più complessa, che riguarda otto aree precise: la biometria, le infrastrutture critiche, l'istruzione, l'occupazione, i servizi essenziali privati e pubblici, l'immigrazione, la giustizia. Se il sistema AI opera in una di queste aree, l'impresa deve rispettare obblighi più stringenti: sistemi di gestione del rischio, dati di addestramento di alta qualità, documentazione tecnica dettagliata, trasparenza verso gli utenti, controllo umano e robustezza informatica.

Un'area di rischio che tocca direttamente molte realtà imprenditoriali, anche di medie dimensioni, è quella delle risorse umane. L'IA nel recruiting e HR è territorio ad alto rischio. Se un'azienda utilizza sistemi automatizzati per lo screening dei CV, software che conducono video-interviste con analisi automatica delle risposte, o algoritmi che suggeriscono promozioni o licenziamenti, deve implementare misure rigorose, tra cui documentazione tecnica dettagliata del funzionamento del sistema, test periodici per identificare e correggere bias discriminatori, meccanismi di supervisione umana sempre attiva e possibilità per i candidati di richiedere revisione umana delle decisioni. Analogamente, i sistemi AI nel credito e nei servizi finanziari ricadono in questa categoria.

Un tema cruciale, spesso sottovalutato, riguarda la distinzione tra provider e deployer. La distinzione tra chi sviluppa il sistema e chi lo utilizza in un contesto aziendale è centrale: un'azienda che integra ChatGPT nei propri processi è un deployer e ha obblighi specifici. La responsabilità non si trasferisce al fornitore del software: la responsabilità finale è dell'impresa utilizzatrice, non del fornitore. Anche acquistando un sistema già pronto, è necessario verificare che sia conforme e usarlo in modo conforme. Si può chiedere al fornitore la documentazione tecnica e le certificazioni, ma la responsabilità resta in capo all'azienda.

Sul fronte della responsabilità d'impresa, l'intersezione con il D.Lgs. 231/2001 è diretta e immediata. Pur non modificando direttamente il catalogo dei reati presupposto del Decreto 231, la Legge n. 132/2025 è destinata a incidere in modo significativo sulla responsabilità amministrativa degli enti, sotto diversi profili: l'introduzione di nuove modalità di commissione di reati già rilevanti ai fini 231; l'aggravamento del trattamento sanzionatorio quando l'illecito è realizzato con l'ausilio di sistemi di IA; la possibile rilevanza «indiretta» del nuovo reato di deepfake in combinazione con reati informatici, societari o di frode già inclusi nel Decreto.

La Legge 132/2025 ha inoltre introdotto una nuova circostanza aggravante di portata generale. La Legge n. 132 del 2025 interviene in modo incisivo sul fronte sanzionatorio, introducendo tra l'altro un'aggravante comune applicabile a tutti i reati, e quindi anche a quelli presupposto della responsabilità amministrativa dell'ente. L'art. 26, comma 1, lett. a) introduce nel codice penale all'art. 61 il n. 11 decies: aggravante che si configura quando il reato è commesso mediante l'impiego di sistemi di intelligenza artificiale allorché, per la loro natura o modalità d'uso, questi abbiano costituito un mezzo insidioso, abbiano ostacolato le attività di difesa, oppure abbiano aggravato le conseguenze del reato.

La Legge 23 settembre 2025 n. 132, entrata in vigore il 10 ottobre 2025, costruisce il primo quadro normativo nazionale organico dedicato all'AI. Tra le novità: il reato di illecita diffusione di deepfake lesivi (introdotto nel Codice penale), la tutela del diritto d'autore per le opere create con ausilio AI, e obblighi informativi per le imprese che usano sistemi AI nei rapporti con i lavoratori.

Sul versante della responsabilità 231, la Legge 132/2025 prevede anche sanzioni interdittive di notevole impatto. La Legge n. 132/2025, entrata in vigore il 10 ottobre 2025, stabilisce sanzioni fino a un massimo di 774.685 euro e, nei casi più gravi, misure interdittive previste dal Decreto 231 per un periodo fino a un anno, tra cui la sospensione o revoca di autorizzazioni, licenze o concessioni, il divieto di contrattare con la pubblica amministrazione e l'esclusione da contributi, finanziamenti e sovvenzioni.

La connessione con il GDPR è altrettanto strutturale. L'art. 2 del Regolamento AI Act chiarisce che la nuova normativa lascia impregiudicati gli obblighi derivanti dal GDPR: ogni trattamento di dati personali tramite sistemi di IA dovrà quindi fondarsi su una delle basi giuridiche previste dall'art. 6 del GDPR. Mentre la DPIA è uno strumento consolidato dal GDPR per identificare e minimizzare i rischi per la privacy derivanti dal trattamento dei dati personali, la FRIA (Fundamental Rights Impact Assessment) è un meccanismo volto a garantire che l'implementazione di sistemi AI ad alto rischio rispetti i diritti fondamentali oltre la privacy, come la non discriminazione e il diritto alla libertà di espressione.

Sul piano sanzionatorio europeo, le cifre in gioco sono di primaria rilevanza per qualsiasi impresa. L'AI Act introduce un sistema sanzionatorio severo: ammende fino a 35 milioni di euro o al 7% del fatturato mondiale annuo in caso di violazioni delle pratiche vietate in quanto a rischio inaccettabile. La violazione di obblighi relativi ai sistemi ad alto rischio può comportare sanzioni fino al 3% del fatturato globale. Oltre alle sanzioni economiche, le autorità possono ordinare la sospensione o il ritiro dal mercato del sistema non conforme, con impatti operativi potenzialmente più gravi della multa stessa.

Sul piano degli adempimenti concreti che il Modello 231 deve incorporare in questa nuova fase, l'indicazione è chiara: il Modello 231 e le procedure aziendali di gestione del rischio dovranno essere aggiornati al fine di intercettare nuovi rischi di illecito connessi all'impiego di IA; integrare misure specifiche di controllo sull'uso degli algoritmi e sull'accesso ai sistemi, anche ai fini dell'impiego di dati di persone fisiche il cui trattamento è sottoposto alle tutele del GDPR e del Codice privacy; implementare la formazione del personale sull'utilizzo sicuro e conforme dei sistemi e degli strumenti di intelligenza artificiale.

Una criticità operativa di primo piano è quella della Shadow AI: mentre i vertici pianificano l'adozione di sistemi complessi, i dipendenti integrano quotidianamente l'intelligenza artificiale nei flussi di lavoro attraverso strumenti non autorizzati («Bring Your Own AI»), creando un perimetro di rischio invisibile al dipartimento IT. Il caricamento di dati personali in assenza di adeguate misure tecniche ed organizzative volte a garantire la conformità al GDPR espone l'azienda a sanzioni amministrative e rischi reputazionali.

Quanto all'orientamento giurisprudenziale, è doveroso segnalare che — alla data di pubblicazione di questo articolo — non risultano pronunce italiane specificamente aventi ad oggetto l'applicazione degli obblighi dell'AI Act per i sistemi ad alto rischio nel periodo novembre 2025 – maggio 2026. Ciò si spiega con la recente entrata in vigore delle disposizioni più significative e con i fisiologici tempi del contenzioso. Sono invece consolidate, in materia di protezione dei dati personali applicata ai sistemi algoritmici e di intelligenza artificiale, le posizioni del Garante per la protezione dei dati personali, che con il provvedimento del 30 marzo 2023 n. 112 nei confronti di OpenAI (confermato nella sua impostazione con il provvedimento definitivo del 26 gennaio 2024 n. 10) ha per primo in Europa applicato il GDPR a un sistema di IA generativa, affermando il principio che anche i modelli di IA operanti nel territorio UE restano integralmente soggetti alla disciplina del trattamento dei dati personali. Si tratta di pronunce anteriori al periodo richiesto (NB: sentenze/provvedimenti anteriori al periodo novembre 2025 – maggio 2026), ma di rilevanza sistematica tuttora fondamentale. Nel frattempo, in Italia il Garante per la protezione dei dati personali è già autorità competente e ha annunciato ispezioni a campione; inoltre, i concorrenti o i whistleblower possono segnalare violazioni.

Dal punto di vista delle azioni concrete da avviare con urgenza, le imprese devono oggi strutturare un percorso articolato: nel 2026 un'azienda deve almeno aver identificato i propri sistemi AI, classificato i casi d'uso per livello di rischio, predisposto documentazione tecnica adeguata, implementato log e tracciabilità e definito ruoli di responsabilità. I sistemi ad alto rischio devono soddisfare requisiti tecnici — tra cui un sistema di gestione dei rischi, l'utilizzo di dataset di qualità, la presenza di adeguata documentazione tecnica e un meccanismo di registrazione automatica dei log — e requisiti organizzativi, ossia la progettazione tale da consentire agli operatori di interpretare correttamente gli output e di impiegare il sistema in modo appropriato, oltre a garantirne la supervisione da parte di persone fisiche competenti.

La distinzione tra compliance come costo e compliance come investimento strategico è centrale nel dibattito attuale. C'è un errore concettuale diffuso: considerare la compliance come un costo. In realtà, le aziende che hanno implementato una governance AI strutturata sono quelle che riescono a scalare più velocemente. La governance non rallenta l'innovazione: la rende sostenibile.

Hai bisogno di assistenza o di un preventivo?

Autore: Redazione - Staff Studio Legale MP


Redazione - Staff Studio Legale MP -

Redazione - Staff Studio Legale MP