Brevissima…

Per la prima volta un tribunale italiano ha ufficialmente segnalato un caso di allucinazione da intelligenza artificiale in ambito processuale.


È quanto emerge dall’ordinanza del 14 marzo 2025 del Tribunale di Firenze, che ha preso in esame un episodio emblematico: un avvocato ha citato in un atto difensivo sentenze mai esistite, generate dall’intelligenza artificiale.

L’errore è stato attribuito a una collaboratrice di studio che, senza informare il patrocinatore, aveva utilizzato il sistema di IA per effettuare una ricerca giurisprudenziale. Le decisioni suggerite dallo strumento si sono però rivelate inesistenti, generando un vero e proprio incidente processuale. Il tribunale ha riconosciuto il disvalore della mancata verifica, ma ha escluso la malafede, evitando così l’applicazione delle sanzioni previste dall’art. 96 c.p.c.

Il caso italiano richiama alla mente vicende analoghe già verificatesi negli Stati Uniti, come quella dell’avvocato Steven Schwartz, sanzionato nel 2023 da un tribunale di New York per aver presentato precedenti giurisprudenziali fittizi. Stavolta, però, la giustizia italiana ha scelto un approccio più indulgente, forse anche in considerazione della novità del fenomeno.

Tuttavia, l’episodio ha riacceso il dibattito sull’uso dell’IA nel lavoro forense. Il messaggio è chiaro: l’intelligenza artificiale può essere un alleato prezioso, ma non può sostituire la responsabilità e la preparazione del professionista. E proprio da questa consapevolezza passa il futuro della giustizia digitale.


Stampa articolo