Un avvocato di Siracusa è stato sanzionato e dovrà pagare 30mila euro per aver portato in tribunale quattro precedenti giurisprudenziali completamente inventati dall’intelligenza artificiale. Se n’è accorto un giudice che ha cercato all’interno del CED della Corte di Cassazione le sentenze citate dall’avvocato e non ne ha trovata nemmeno una. Le sentenze falseIl legale è stato sanzionato in quanto – spiega il giudice Alfredo Spitaleri nella sentenza n. 338/2026 del 20 febbraio – «l’unica ipotesi residua, e al tempo stesso la più compatibile con la fenomenologia concreta del caso, è che il difensore si sia avvalso di uno strumento di intelligenza artificiale generativa senza sottoporre gli output ottenuti alla doverosa verifica sulle fonti primarie». Che l’intelligenza artificiale sia ormai entrata nella vita lavorativa della maggioranza delle persone è risaputo. E – come sottolinea il vicepresidente della Camera penale di Siracusa, Giuseppe Gurrieri – l’uso di queste tecnologie non è da criminalizzare: «Esistono AI associate alle banche dati che vengono utilizzate da colleghi. Non scrivono gli atti, ma sviluppano determinati motivi di appello oppure analizzano documenti molto estesi. Quindi un appropriato utilizzo dello strumento può essere utile». Nel caso dell’avvocato, però, l’AI non ha aiutato, anzi. Ha inventato, facendo finire nei guai il professionista.La sentenza veraLa sentenza n. 338/2026 (questa sì vera) ha condannato l’avvocato a una tripla sanzione: 14.103 euro di spese legali in favore della controparte vittoriosa; 14.103 euro a titolo di risarcimento del danno ex art. 96, comma 3, c.p.c. (la norma che punisce la lite temeraria); 2.000 euro in favore della Cassa delle Ammende introdotta per scoraggiare le azioni pretestuose. Il giudice ha spiegato che ormai è «fatto notorio» che i Large Language Models «non costituiscono banche dati giurisprudenziali da cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica». Secondo il giudice i LLM «non sanno né ricordano alcunché, ma si limitano a produrre sequenze di testo statisticamente plausibili». Nessuna delle quattro sentenze citate dall’avvocato (Cass. n. 1216/2000, Cass. n. 8379/2006, Cass. n. 14795/2003 e Cass. n. 4553/2004) conteneva le citazioni portate in aula dal professionista. Quindi: le sentenze esistono, ma non dicono quello che l’AI sostiene. Addirittura, trattano materie completamente diverse. E all’avvocato sarebbe bastato un rapido controllo per accorgersene. Invece – è quello che ha ritenuto il giudice – l’avvocato si è fidato del risultato della sua ricerca effettuata attraverso l’AI. Il giudice Spitaleri ha stabilito dunque un principio importante: l’utilizzazione acritica dell’IA generativa, senza verifica delle fonti primarie, integra gli estremi della colpa grave. I precedentiNon è la prima volta che un giudice si accorge che in aula sia entrata l’intelligenza artificiale. Uno dei primi casi è stato quello di un avvocato fiorentino che aveva citato in una memoria difensiva molte sentenze inesistenti, dando poi la colpa a una sua collaboratrice. All’estero era successo nel 2023 quando nel tribunale di New York un avvocato aveva citato sette precedenti legali frutto delle allucinazioni di ChatGPT.L'articolo Siracusa, avvocato sanzionato per aver usato quattro sentenze inventate dell’AI proviene da Open.