L’intelligenza artificiale entra ufficialmente nelle gare pubbliche: il TAR Lazio legittima l’uso di ChatGPT-4

Attualità

Con la sentenza n. 4546/2025, il TAR Lazio ha per la prima volta riconosciuto la legittimità dell’utilizzo di ChatGPT-4 in una gara pubblica, aprendo di fatto le porte all’impiego dell’intelligenza artificiale (IA) nei procedimenti ad evidenza pubblica.

Nel caso specifico, una società italiana si è aggiudicata un lotto relativo a servizi di pulizia e sanificazione, integrando nella propria offerta l’impiego dell’IA per ottimizzare costi, produttività e modelli organizzativi. Una scelta strategica che ha conferito un evidente vantaggio competitivo.

Contro l’aggiudicazione la terza classificata ha sollevato censure in ordine alla presunta inapplicabilità dei sistemi di IA proposti. Tuttavia, il TAR ha rigettato il ricorso, affermando un principio innovativo: l’impiego dell’intelligenza artificiale non può costituire, di per sé, causa di esclusione, purché il suo utilizzo sia “mirato e specifico“, come nel caso in esame, “che ne prevede l’impiego solo come ulteriore strumento di supporto matematico/statistico e di elaborazione di dati, migliorando l’efficienza e la qualità dei servizi offerti”.

E’ dunque lecito affidarsi a modelli algoritmici per superare concorrenti tradizionali e le Pubbliche Amministrazioni possono – e dovrebbero – aprirsi all’adozione consapevole di tali tecnologie. Come affermato dal TAR, l’IA è ormai uno “strumento di ausilio… di comune e diffuso utilizzo”.

Tale orientamento comporta importanti conseguenze pratiche. Da un lato, le stazioni appaltanti dovranno aggiornare i propri criteri di valutazione, introducendo parametri idonei a verificare l’affidabilità e la trasparenza dei sistemi di machine learning. Dall’altro lato, si prospetta un inevitabile divario competitivo tra le grandi realtà in grado di investire in IA e le PMI, che rischiano di rimanere escluse da una vera e propria corsa agli armamenti tecnologici dai costi sempre più elevati.

Infine, permane una questione irrisolta, che come giurista non posso non sollevare: chi risponde se l’ algoritmo commette un errore? Una domanda tanto più attuale se si considera che, nel febbraio 2025, la Commissione Europea ha ritirato la proposta di direttiva sulla responsabilità civile da intelligenza artificiale. Tale direttiva mirava a introdurre un quadro armonizzato a livello europeo per la responsabilità derivante da danni causati da sistemi di IA. Il ritiro, motivato da assenza di consenso politico e dal timore di ostacolare l’innovazione, lascia oggi un vuoto normativo rilevante, atteso che la disciplina della responsabilità sarà affidata alle singole legislazioni nazionali, con inevitabili criticità applicative.

In tale scenario, è evidente che il bilanciamento tra innovazione e tutela giuridica richiede un intervento normativo chiaro e tempestivo, capace di accompagnare l’evoluzione tecnologica senza pregiudicare i principi fondamentali del diritto.

Avv. Simona Maruccio

simona@maruccio.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Moderazione dei commenti attiva. Il tuo commento non apparirà immediatamente.

This site uses Akismet to reduce spam. Learn how your comment data is processed.