Con la sentenza n. 4546/2025, il TAR Lazio ha per la prima volta riconosciuto la legittimità dell’utilizzo di ChatGPT-4 in una gara pubblica, aprendo di fatto le porte all’impiego dell’intelligenza artificiale (IA) nei procedimenti ad evidenza pubblica.
Nel caso specifico, una società italiana si è aggiudicata un lotto relativo a servizi di pulizia e sanificazione, integrando nella propria offerta l’impiego dell’IA per ottimizzare costi, produttività e modelli organizzativi. Una scelta strategica che ha conferito un evidente vantaggio competitivo.
Contro l’aggiudicazione la terza classificata ha sollevato censure in ordine alla presunta inapplicabilità dei sistemi di IA proposti. Tuttavia, il TAR ha rigettato il ricorso, affermando un principio innovativo: l’impiego dell’intelligenza artificiale non può costituire, di per sé, causa di esclusione, purché il suo utilizzo sia “mirato e specifico“, come nel caso in esame, “che ne prevede l’impiego solo come ulteriore strumento di supporto matematico/statistico e di elaborazione di dati, migliorando l’efficienza e la qualità dei servizi offerti”.
E’ dunque lecito affidarsi a modelli algoritmici per superare concorrenti tradizionali e le Pubbliche Amministrazioni possono – e dovrebbero – aprirsi all’adozione consapevole di tali tecnologie. Come affermato dal TAR, l’IA è ormai uno “strumento di ausilio… di comune e diffuso utilizzo”.
Tale orientamento comporta importanti conseguenze pratiche. Da un lato, le stazioni appaltanti dovranno aggiornare i propri criteri di valutazione, introducendo parametri idonei a verificare l’affidabilità e la trasparenza dei sistemi di machine learning. Dall’altro lato, si prospetta un inevitabile divario competitivo tra le grandi realtà in grado di investire in IA e le PMI, che rischiano di rimanere escluse da una vera e propria corsa agli armamenti tecnologici dai costi sempre più elevati.
Infine, permane una questione irrisolta, che come giurista non posso non sollevare: chi risponde se l’ algoritmo commette un errore? Una domanda tanto più attuale se si considera che, nel febbraio 2025, la Commissione Europea ha ritirato la proposta di direttiva sulla responsabilità civile da intelligenza artificiale. Tale direttiva mirava a introdurre un quadro armonizzato a livello europeo per la responsabilità derivante da danni causati da sistemi di IA. Il ritiro, motivato da assenza di consenso politico e dal timore di ostacolare l’innovazione, lascia oggi un vuoto normativo rilevante, atteso che la disciplina della responsabilità sarà affidata alle singole legislazioni nazionali, con inevitabili criticità applicative.
In tale scenario, è evidente che il bilanciamento tra innovazione e tutela giuridica richiede un intervento normativo chiaro e tempestivo, capace di accompagnare l’evoluzione tecnologica senza pregiudicare i principi fondamentali del diritto.
Avv. Simona Maruccio
simona@maruccio.it

Laureato in legge col massimo dei voti, ha iniziato due anni fa la carriera di startupper, con la casa editrice digitale Leo Libri. Attualmente è Presidente di Leotech srls, che ha contribuito a fondare. Si occupa di internazionalizzazione di imprese, marketing e comunicazione,