Come avvocato con venticinque anni di esperienza forense, sono profondamente colpita dalla recente ordinanza del Tribunale di Firenze che si distingue per la sua attualità, portando all’attenzione, nel contesto legale, il problema delle “allucinazioni” generate dall’Intelligenza Artificiale ovvero il fenomeno delle distorsioni generative nei sistemi algoritmici.
Nel citato caso giudiziario è accaduto che un Legale nel proprio atto costitutivo abbia indicato, a supporto delle argomentazioni, “sentenze inesistenti ovvero il cui contenuto reale non corrisponde a quello riportato” e che a seguito di tale contestazione da parte del Collega avversario, abbia dichiarato che 𝑖 𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑖 𝑔𝑖𝑢𝑟𝑖𝑠𝑝𝑟𝑢𝑑𝑒𝑛𝑧𝑖𝑎𝑙𝑖 enunciati in 𝑎𝑡𝑡𝑜 “ 𝑠𝑜𝑛𝑜 𝑠𝑡𝑎𝑡𝑖 𝑖𝑙 𝑓𝑟𝑢𝑡𝑡𝑜 𝑑𝑒𝑙𝑙𝑎 𝑟𝑖𝑐𝑒𝑟𝑐𝑎 𝑒𝑓𝑓𝑒𝑡𝑡𝑢𝑎𝑡𝑎 𝑑𝑎 𝑢𝑛𝑎 𝑐𝑜𝑙𝑙𝑎𝑏𝑜𝑟𝑎𝑡𝑟𝑖𝑐𝑒 𝑑𝑖 𝑠𝑡𝑢𝑑𝑖𝑜 𝑚𝑒𝑑𝑖𝑎𝑛𝑡𝑒 𝑙𝑜 𝑠𝑡𝑟𝑢𝑚𝑒𝑛𝑡𝑜 𝑑𝑒𝑙𝑙’𝑖𝑛𝑡𝑒𝑙𝑙𝑖𝑔𝑒𝑛𝑧𝑎 𝑎𝑟𝑡𝑖𝑓𝑖𝑐𝑖𝑎𝑙𝑒 “𝐶ℎ𝑎𝑡𝐺𝑃𝑇”, 𝑑𝑒𝑙 𝑐𝑢𝑖 𝑢𝑡𝑖𝑙𝑖𝑧𝑧𝑜 𝑖𝑙 𝑝𝑎𝑡𝑟𝑜𝑐𝑖𝑛𝑎𝑡𝑜𝑟𝑒 𝑖𝑛 𝑚𝑎𝑛𝑑𝑎𝑡𝑜 𝑛𝑜𝑛 𝑒𝑟𝑎 𝑎 𝑐𝑜𝑛𝑜𝑠𝑐𝑒𝑛𝑧𝑎. 𝐿’𝐼𝐴 𝑎𝑣𝑟𝑒𝑏𝑏𝑒 𝑑𝑢𝑛𝑞𝑢𝑒 𝑔𝑒𝑛𝑒𝑟𝑎𝑡𝑜 𝑟𝑖𝑠𝑢𝑙𝑡𝑎𝑡𝑖 𝑒𝑟𝑟𝑎𝑡𝑖 𝑐ℎ𝑒 𝑝𝑜𝑠𝑠𝑜𝑛𝑜 𝑒𝑠𝑠𝑒𝑟𝑒 𝑞𝑢𝑎𝑙𝑖𝑓𝑖𝑐𝑎𝑡𝑖 𝑐𝑜𝑛 𝑖𝑙 𝑓𝑒𝑛𝑜𝑚𝑒𝑛𝑜 𝑑𝑒𝑙𝑙𝑒 𝑐𝑐.𝑑𝑑. 𝑎𝑙𝑙𝑢𝑐𝑖𝑛𝑎𝑧𝑖𝑜𝑛𝑖 𝑑𝑖 𝑖𝑛𝑡𝑒𝑙𝑙𝑖𝑔𝑒𝑛𝑧𝑎 𝑎𝑟𝑡𝑖𝑓𝑖𝑐𝑖𝑎𝑙𝑒, 𝑐ℎ𝑒 𝑠𝑖 𝑣𝑒𝑟𝑖𝑓𝑖𝑐𝑎 𝑎𝑙𝑙𝑜𝑟𝑐ℎè 𝑙’𝐼𝐴 𝑖𝑛𝑣𝑒𝑛𝑡𝑖 𝑟𝑖𝑠𝑢𝑙𝑡𝑎𝑡𝑖 𝑖𝑛𝑒𝑠𝑖𝑠𝑡𝑒𝑛𝑡𝑖 𝑚𝑎 𝑐ℎ𝑒, 𝑎𝑛𝑐ℎ𝑒 𝑎 𝑠𝑒𝑔𝑢𝑖𝑡𝑜 𝑑𝑖 𝑢𝑛𝑎 𝑠𝑒𝑐𝑜𝑛𝑑𝑎 𝑖𝑛𝑡𝑒𝑟𝑟𝑜𝑔𝑎𝑧𝑖𝑜𝑛𝑒, 𝑣𝑒𝑛𝑔𝑜𝑛𝑜 𝑐𝑜𝑛𝑓𝑒𝑟𝑚𝑎𝑡𝑖 𝑐𝑜𝑚𝑒 𝑣𝑒𝑟𝑖𝑡𝑖𝑒𝑟𝑖.”
Il Tribunale ha escluso la responsabilità aggravata ex art. 96 c.p.c. per assenza di malafede, ma ha comunque stigmatizzato il mancato vaglio critico delle fonti, definendolo “disvalore” nel contesto processuale.
La pronuncia fiorentina a mio parere stimola diverse necessarie riflessioni.
Anzitutto sottolinea i limiti dell’automazione giuridica, atteso che gli strumenti generativi non sostituiscono le competenze ed il ragionamento giuridico e richiedono la rigorosa supervisione e verifica del professionista.
La delega incondizionata a strumenti tecnologici – come pare essere accaduto nel caso di specie – potrebbe inoltre violare i doveri di diligenza professionale.
Mentre output non validati potrebbero compromettere l’affidabilità del contraddittorio, rischiando di viziare la correttezza del processo decisionale in sede giudiziaria.
A parere di chi scrive, detta pronuncia, nell’affrontare per la prima volta in Italia il tema specifico delle allucinazioni dell’IA nel contesto giudiziario, deve porre le basi per un approfondimento più ampio sul corretto utilizzo delle tecnologie nel mondo del diritto, inaugurando un dibattito che è assolutamente indispensabile, in quanto l’Intelligenza Artificiale è un valido supporto anche per il professionista giuridico, laddove permanga il ruolo decisionale ed il controllo umano dello stesso.
Avv. Simona Maruccio

Laureato in legge col massimo dei voti, ha iniziato due anni fa la carriera di startupper, con la casa editrice digitale Leo Libri. Attualmente è Presidente di Leotech srls, che ha contribuito a fondare. Si occupa di internazionalizzazione di imprese, marketing e comunicazione,
Sempre molto puntuale e interessante. Grazie avvocato Maruccio