La digitalizzazione dei concorsi pubblici ha introdotto piattaforme telematiche, sistemi automatizzati di formazione delle graduatorie e primi impieghi di intelligenza artificiale nell’istruttoria e nella valutazione dei candidati. Negli ultimi mesi la giurisprudenza amministrativa ha iniziato a fissare paletti molto concreti: dalla “riserva di umanità” che deve presidiare ogni decisione algoritmica, alla motivazione dei punteggi numerici, fino al diritto di accesso al funzionamento dei sistemi automatizzati. Per i candidati e per le amministrazioni si apre un nuovo fronte operativo, in cui errori di compilazione digitale, scelte di design della piattaforma e opacità degli algoritmi possono diventare terreno di ricorsi fondati o, al contrario, di contenzioso evitabile con una corretta impostazione del procedimento.
Algoritmi, “riserva di umanità” e concorsi scuola: la svolta del TAR Lazio
La sentenza del TAR Lazio, Sezione Terza Bis, 2 febbraio 2026, n. 1895, relativa al concorso docenti PNRR per la classe di concorso A001 – Arte e Immagine, rappresenta un punto di svolta nei rapporti tra automazione e concorsi pubblici. Il ricorrente aveva maturato il servizio utile per beneficiare della riserva del trenta per cento dei posti, lo aveva dichiarato nella domanda e ne aveva ottenuto il punteggio, ma aveva omesso di spuntare l’apposita casella che attivava, sul piano informatico, la riserva stessa. Il sistema algoritmico, coerentemente con la logica della piattaforma, non aveva riconosciuto il beneficio, relegando il candidato in posizione non utile in graduatoria; il TAR, tuttavia, ha ritenuto che un errore meramente formale non possa prevalere su un requisito sostanziale inequivocabilmente risultante dagli atti.
La pronuncia afferma in modo espresso la necessità di una “riserva di umanità” anche nelle procedure automatizzate: nelle parole del Collegio, l’amministrazione non può delegare integralmente la decisione all’algoritmo e deve mantenere un controllo effettivo, capace di correggere gli esiti informatici quando essi confliggono con dati chiaramente emergenti dalla domanda. Vengono richiamati i principi costituzionali di uguaglianza, difesa e buon andamento (articoli 3, 24 e 97 Costituzione), nonché le garanzie partecipative e motivazionali della legge 7 agosto 1990, n. 241 e del Codice dell’amministrazione digitale, a conferma che la decisione resta sempre imputabile alla persona fisica responsabile del procedimento. In questo quadro il TAR valorizza anche il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), che qualifica come “ad alto rischio” i sistemi di IA impiegati per l’accesso al pubblico impiego, utilizzandolo come parametro interpretativo evolutivo pur in assenza di piena applicabilità temporale.
L’insegnamento pratico è chiaro: quando il candidato ha chiaramente espresso, nei contenuti dell’istanza, il possesso di un requisito sostanziale, la mancata selezione di una casella o un’imperfezione del flusso digitale non possono trasformarsi in un automatismo escludente, se l’amministrazione è in grado di verificare agevolmente l’esistenza del presupposto. È qui che la massima latina summum ius, summa iniuria – “il sommo diritto è somma ingiustizia” – torna di stringente attualità: un’applicazione rigidamente formalistica delle regole informatiche può tradursi in una lesione del merito e dei principi sostanziali dell’azione amministrativa.
Punteggi numerici, criteri di valutazione e piattaforme digitali: la lezione del TAR Lazio n. 5653/2025
Su un versante solo in apparenza diverso, la sentenza TAR Lazio n. 5653/2025, pubblicata il 12 gennaio 2026, ha annullato un maxi concorso del Ministero dell’Università e della Ricerca per trentacinque incarichi di esperti di elevata qualificazione proprio per carenza di motivazione delle valutazioni, nonostante l’uso di punteggi numerici e schede standardizzate. Il caso riguardava, in particolare, il punteggio di otto ventesimi attribuito alla voce “adeguate attitudini” (caratteristiche personali, relazionali e motivazionali) ad una candidata che aveva invece ottenuto un punteggio quasi massimo (diciannove ventesimi) per l’esperienza professionale in ruoli analoghi. Mancava del tutto una griglia di valutazione, con indicatori predeterminati o parametri oggettivi per collegare il numero alla qualità della prestazione: la commissione si era limitata a riportare cifre e formule stereotipate, prive di reale contenuto esplicativo.
Il TAR ha ribadito un principio destinato ad incidere fortemente sulle future procedure, soprattutto quando veicolate tramite piattaforme digitali: il punteggio numerico è legittimo come forma sintetica di motivazione solo se preceduto da una preventiva e puntuale definizione dei criteri valutativi, idonei a rendere intellegibile il percorso logico seguito dalla commissione. In assenza di criteri di massima dettagliati, il voto si riduce a un dato opaco, sottratto a qualsiasi verifica esterna, in contrasto con i principi di trasparenza, imparzialità e buon andamento di cui all’articolo 97 della Costituzione. È significativo che il Collegio respinga con decisione la tesi secondo cui proprio le valutazioni attitudinali, per la loro natura “sensibile” e soggettiva, dovrebbero restare libere da griglie: al contrario, è proprio in questi segmenti che occorre maggiore rigore predeterminativo, per evitare che la discrezionalità tecnica degeneri in arbitrio.
Per le amministrazioni che utilizzano piattaforme digitali di gestione dei concorsi, la ricaduta operativa è duplice: da un lato, occorre integrare nei sistemi informatici criteri chiari, pesi e sottopunteggi, in modo che l’output numerico sia sempre riconducibile a parametri predeterminati; dall’altro, è necessario che tali criteri siano conoscibili dai candidati, almeno nelle loro linee essenziali, per consentire un effettivo controllo giurisdizionale. Per i candidati, invece, la sentenza offre una base solida per censurare valutazioni caratterizzate da forti scostamenti interni (per esempio tra esperienza e attitudini) quando manchi qualsiasi spiegazione strutturata e preventivamente definita.
La combinazione tra sistemi digitali e schede di valutazione precompilate rischia infatti di accentuare la tentazione di affidarsi a formule standard e campi a tendina, riducendo la motivazione ad una “spunta” automatica: il giudice amministrativo richiama l’attenzione sul fatto che l’informatica non può diventare il veicolo di un vuoto motivazionale. Ancora una volta, la digitalizzazione deve essere strumento di semplificazione e non occasione per comprimere le garanzie sostanziali dei concorrenti.
Algoritmi e sistemi di intelligenza artificiale nei concorsi, tuttavia, non incidono solo sulla fase di valutazione e graduazione: sempre più spesso le piattaforme concorsuali incorporano moduli che gestiscono l’istruttoria, incrociano dati provenienti da banche dati esterne, o applicano regole complesse per l’assegnazione di incarichi, si pensi alle procedure informatizzate per le graduatorie provinciali per le supplenze. Qui, il tema diventa quello dell’accesso agli atti algoritmici: capire “come” il sistema ha elaborato i dati diventa condizione necessaria per poter articolare un ricorso effettivo.
Su questo punto si collocano due importanti pronunce del Consiglio di Stato del 2025: la sentenza della Sezione VI n. 4857 del 4 giugno 2025 e la sentenza, sempre della Sezione VI, n. 4929 del 6 giugno 2025. Nel primo caso, il Giudice amministrativo ha esaminato l’uso di un algoritmo di supporto in una procedura di gara telematica, chiamato a confrontare le impronte hash dei file caricati dai concorrenti per verificare eventuali modifiche successive alla scadenza: il Consiglio di Stato ha escluso che si trattasse di una vera e propria “decisione algoritmica”, riconducendo il sistema ad un mero strumento ausiliario e negando l’accesso al codice sorgente in ragione della tutela della privativa intellettuale e del carattere meramente esplorativo dell’istanza. La sentenza sottolinea, tuttavia, che l’articolo 30 del decreto legislativo 31 marzo 2023, n. 36 (nuovo Codice dei contratti pubblici) esprime un favor per l’accesso al codice sorgente e per l’utilizzo di algoritmi open source, pur nel bilanciamento con i segreti tecnici e commerciali.
Nella sentenza n. 4929 del 6 giugno 2025, invece, il Consiglio di Stato affronta in modo diretto il rapporto tra procedimenti amministrativi gestiti in forma automatizzata e diritto di accesso. In quel caso, l’amministrazione regionale aveva negato l’accesso ai dati relativi a contributi agricoli gestiti tramite un sistema integrato basato su algoritmi centralizzati, sostenendo di non poter estrarre le informazioni se non incaricando, a pagamento, il soggetto gestore del sistema informativo nazionale. Il Consiglio di Stato ha affermato che le difficoltà tecniche o organizzative connesse all’uso di sistemi di IA non possono comprimere un diritto fondamentale come l’accesso agli atti, soprattutto quando collegato a esigenze difensive, richiamando i principi di conoscibilità e comprensibilità, non esclusività della decisione algoritmica e non discriminazione algoritmica, oggi espressamente recepiti dall’articolo 30 del Codice dei contratti pubblici.
Il messaggio è di immediata rilevanza anche per i concorsi pubblici: se la graduatoria o l’ammissione sono il risultato di un procedimento automatizzato, l’amministrazione non può opporre la “non conoscibilità” del funzionamento del sistema o la centralizzazione tecnica come motivo per limitare l’accesso dei candidati ai dati necessari a comprendere e contestare la decisione. In questo senso si colloca anche la recente legge 23 settembre 2025, n. 132 sull’intelligenza artificiale, che all’articolo 14 impone alle pubbliche amministrazioni di utilizzare l’IA solo in funzione strumentale e di supporto, ribadendo il principio di non sostituzione: la persona resta l’unico responsabile dei provvedimenti, e l’uso di sistemi automatizzati non può pregiudicare trasparenza, motivazione e controllabilità dell’azione amministrativa.
Per gli operatori del diritto, si delinea così una struttura a più livelli: da un lato, le garanzie “classiche” del procedimento amministrativo (motivazione, trasparenza, partecipazione, diritto di accesso); dall’altro, principi specifici per i procedimenti algoritmici, quali conoscibilità del sistema, non esclusività della decisione e non discriminazione, oggi valorizzati tanto dal legislatore quanto dalla giurisprudenza. La combinazione di questi piani consente di attaccare, anche in sede concorsuale, non solo l’esito finale ma l’intero “ecosistema digitale” che lo produce, quando esso si riveli opaco, rigido o sproporzionato rispetto alla tutela del merito e dell’affidamento dei candidati.
Per i candidati ai concorsi pubblici, le recenti pronunce offrono indicazioni molto concrete su come impostare la tutela in presenza di procedure automatizzate, piattaforme telematiche e sistemi algoritmici. In primo luogo, diventa essenziale conservare con cura tutta la documentazione generata dalla piattaforma: copia integrale della domanda presentata, ricevute telematiche, tracciati pdf con i campi compilati, schermate che mostrino le opzioni selezionate o non selezionate. Nella logica della “riserva di umanità” affermata dal TAR Lazio n. 1895/2026, ciò che conta non è solo la spunta di una casella, ma la chiara emergenza del requisito sostanziale dagli atti: poter dimostrare di aver dichiarato un servizio, un titolo o una preferenza consente di contestare decisioni che si limitino a replicare un automatismo informatico privo di controllo umano effettivo.
In secondo luogo, è fondamentale esercitare tempestivamente il diritto di accesso agli atti: non solo al bando e alle graduatorie, ma anche alle schede di valutazione, ai log di sistema, ai prospetti interni di calcolo del punteggio e – quando possibile – alla documentazione che descrive il funzionamento del sistema automatizzato utilizzato. La giurisprudenza sul diritto di accesso nei procedimenti algoritmici mostra una netta tendenza a negare che l’uso di IA o di sistemi centralizzati possa legittimare dinieghi generalizzati: eventuali costi tecnici di estrazione dei dati possono essere posti a carico del richiedente, ma non possono elidere il controllo sulla decisione.
Terzo profilo, strettamente connesso, riguarda la motivazione delle valutazioni espresse tramite punteggio numerico: dopo la sentenza TAR Lazio n. 5653/2025, è consigliabile che il candidato richieda espressamente l’ostensione dei criteri di valutazione adottati dalla commissione (griglie, pesi, sub-criteri) e verifichi la coerenza tra tali parametri e il voto ricevuto. Divergenze marcate tra segmenti omogenei (per esempio, esperienza professionale altissima e attitudini bassissime, in assenza di spiegazioni) possono costituire un indice forte di illogicità o di carenza motivazionale, idoneo a fondare un ricorso.
Infine, occorre valutare attentamente, con l’assistenza di un legale, se le criticità riscontrate riguardino solo la posizione del singolo oppure derivino da vizi strutturali del sistema (mancata predeterminazione dei criteri, rigidità eccessiva dell’interfaccia, mancata considerazione di dati già in possesso dell’amministrazione, eccetera). Nel primo caso, potrà essere opportuno un ricorso individuale, magari fondato sulla specifica applicazione distorta dell’algoritmo; nel secondo, può invece profilarsi l’interesse a iniziative collettive o a impugnazioni volte a rimettere in discussione l’intera procedura, come accaduto nel concorso per esperti PNRR annullato dal TAR Lazio.
Dal lato delle amministrazioni, le medesime pronunce mettono in evidenza la necessità di un cambio di paradigma nella progettazione dei concorsi digitali. La normativa sull’intelligenza artificiale – dal Regolamento europeo AI Act alla legge italiana n. 132 del 2025 – impone di concepire l’IA come strumento di supporto, vietando di fatto la sostituzione integrale del decisore umano nei procedimenti che incidono su diritti fondamentali, quali l’accesso al lavoro pubblico. Ciò si traduce, anzitutto, nell’obbligo di nominare un responsabile del procedimento che non sia una mera “figura cartacea”, ma svolga un effettivo controllo sugli output della piattaforma, intervenendo quando gli esiti informatici appaiono incompatibili con i dati disponibili o con i principi di ragionevolezza e proporzionalità.
In secondo luogo, le amministrazioni devono investire nella trasparenza “by design”: documentare dettagliatamente, sin dalla fase di progettazione, i criteri di valutazione, la logica di funzionamento dei sistemi automatizzati, i flussi di dati e le misure adottate per prevenire discriminazioni algoritmiche. Ciò implica, ad esempio, la predisposizione di informative chiare nei bandi e nelle pagine delle piattaforme, l’indicazione esplicita dell’eventuale uso di IA e della possibilità per il candidato di chiedere spiegazioni sulle decisioni che lo riguardano, in linea con i principi europei di trasparenza e di human oversight.
Terzo aspetto riguarda la gestione dei conflitti tra diritto di accesso e tutela dei segreti tecnici o commerciali: la giurisprudenza consente certamente di proteggere il codice sorgente quando esso appartenga a soggetti terzi e l’istanza sia meramente esplorativa, come nel caso deciso dal Consiglio di Stato n. 4857/2025, ma non legittima un arretramento generalizzato della trasparenza rispetto alle elaborazioni algoritmiche. Soluzioni intermedie – come la predisposizione di documentazione tecnica semplificata, di log anonimizzati o di report esplicativi sulle regole di funzionamento – possono consentire di bilanciare le esigenze di tutela industriale con il diritto dei candidati di comprendere e, se del caso, contestare le decisioni.
Sul piano culturale, si sta delineando una linea di continuità tra dottrina e giurisprudenza, che ha coniato espressioni come “amministrazione algoritmica responsabile” e “riserva di umanità” per descrivere un modello in cui l’innovazione tecnologica è sempre sorvegliata dalla ragione giuridica. In questo senso, risuonano attuali anche le parole di Dante Alighieri: “Le leggi son, ma chi pon mano ad esse?”, a ricordare che non basta la mera esistenza di norme o, oggi, di codici e algoritmi; occorre chi li sappia applicare con misura e responsabilità. La sfida dei prossimi anni sarà proprio quella di evitare che il software, per usare l’espressione del Consiglio di Stato, “da mero strumento per velocizzare l’attuazione della legge finisca per sostituirsi alla legge”, rovesciando il rapporto tra mezzo e fine.
Per candidati, enti pubblici e operatori economici il contenzioso sui concorsi pubblici del prossimo futuro si giocherà sempre più sul terreno ibrido tra diritto sostanziale, regole procedimentali e architetture digitali. Sapere leggere le graduatorie alla luce delle logiche algoritmiche, riconoscere i casi in cui l’errore è “di piattaforma” e non del candidato, individuare le zone d’ombra nella motivazione dei punteggi, pretendere un accesso effettivo ai dati e alle regole di funzionamento: sono tutte competenze che diventeranno centrali nella strategia difensiva. In questo scenario, la consulenza legale non si limita più alla verifica di vizi “classici” del bando
Redazione - Staff Studio Legale MP