LLM e diritto: limiti strutturali, rischi per la professione legale e necessità di supervisione umana

Un'analisi delle criticità dei Large Language Models nell'interpretazione giuridica, tra allucinazioni, instabilità decisionale e impatti sulla responsabilità…

Contenuto

LLM e diritto: limiti strutturali, rischi per la professione legale e necessità di supervisione umana

Scopri anche

LLM e diritto: limiti strutturali, rischi per la professione legale e necessità di supervisione umana

LLM e diritto: limiti strutturali, rischi per la professione legale e necessità di supervisione umana

In questo articolo:

L'integrazione dei Large Language Models (LLM) nel settore legale ha acceso un dibattito acceso tra innovazione tecnologica e tutela della certezza del diritto. Se da un lato avvocati e magistrati sperimentano strumenti come ChatGPT per pareri preliminari o sintesi giurisprudenziali, studi recenti evidenziano come questi modelli falliscano sistematicamente nell'interpretazione giuridica, generando risposte instabili e talvolta opposte a fronte di minime variazioni nel testo del prompt. L'illusione di una "giustizia computazionale" già pronta all'uso rischia di produrre conseguenze rilevanti, specialmente quando l'output generato non viene sottoposto a verifica umana.

Instabilità interpretativa e assenza di senso comune giuridico

⬆ Torna su

Il problema fondamentale risiede nell'architettura stessa degli LLM: il modello non applica regole né deduce conclusioni, ma genera la risposta più probabile dato un input linguistico. Piccole variazioni nella formulazione di un quesito giuridico producono esiti profondamente diversi, un fenomeno che rende l'uso di questi strumenti nel ragionamento legale assimilabile a una scommessa. In un contesto normativo dove l'uguaglianza di trattamento e la prevedibilità delle decisioni sono valori fondamentali, questa aleatorietà risulta inaccettabile.

I ricercatori sottolineano che gli LLM mancano del "senso comune giuridico", ovvero della capacità di comprendere non solo cosa dice una norma, ma perché lo dice e come deve essere applicata in situazioni concrete. I modelli oscillano tra interpretazioni eccessivamente letterali e costruzioni concettuali artificiose, incapaci di cogliere la ratio legis. Si tratta di un limite strutturale: il sistema non vive nel mondo regolato dalle norme che interpreta e non partecipa alla comunità interpretativa che dà senso al diritto.

Allucinazioni legali e casi concreti di malpractice

⬆ Torna su

Gli esperimenti documentano frequenti "hallucinations legali", con modelli che inventano fatti o contenuti giurisprudenziali inesistenti. Un caso emblematico ha coinvolto un avvocato di Manhattan che ha utilizzato ChatGPT per redigere un atto giuridico, citando presunti precedenti legali completamente inventati. La vicenda ha portato a un'azione disciplinare e alla multa inflitta a due avvocati newyorkesi da parte di un giudice federale per aver presentato memorie legali con precedenti giuridici inesistenti.

In Italia, la situazione presenta specificità legate alla lingua e al sistema giuridico. La maggior parte dei modelli è addestrata prevalentemente su dati in lingua inglese e sul sistema di common law, con un bias sistemico che genera un'IA apparentemente competente ma operante in un ordinamento "ibrido". Il linguaggio legale italiano, con le sue peculiarità rispetto all'italiano standard, rappresenta un ostacolo aggiuntivo per modelli che "conoscono" informazioni solo fino alla data del loro addestramento.

Responsabilità professionale e conseguenze procedurali

⬆ Torna su

La documentazione giudiziaria offre un riscontro concreto dei rischi connessi all'inesperienza o alla negligenza in ambito legale. Una recente ordinanza della Corte di Cassazione ha dichiarato inammissibile un ricorso presentato direttamente dall'interessato senza la firma di un difensore specializzato. La Corte ha applicato la procedura accelerata prevista dall'articolo 610, comma 5-bis, del codice di procedura penale, condannando il ricorrente al pagamento delle spese processuali e di tremila euro alla Cassa delle ammende.

L'articolo 613, comma 1, del codice di procedura penale, come modificato dalla legge 103 del 2017, stabilisce che il ricorso per cassazione in materia penale deve essere sottoscritto da un difensore iscritto all'albo speciale degli avvocati cassazionisti. La ratio è duplice: garantire la qualità tecnica in un giudizio di pura legittimità e filtrare i ricorsi per evitare che la Suprema Corte venga sommersa da atti mal formulati.

Per quanto riguarda l'errore professionale dell'avvocato, l'articolo 1176 del Codice civile definisce le obbligazioni di diligenza, diligenza qualificata e informazione. L'azione per il risarcimento del danno si prescrive in dieci anni dalla data in cui il danno è stato conosciuto, riducendosi a tre anni se l'errore ha comportato la perdita di un diritto.

Tecnologie RAG e limiti del recupero informazioni

⬆ Torna su

Per mitigare i limiti degli LLM tradizionali, gli studi legali stanno valutando la tecnologia RAG (Retrieval-Augmented Generation), che combina modelli generativi con sistemi di recupero da banche dati interne. Questo approccio consente risposte basate su fonti autorevoli, riducendo il rischio di allucinazioni. Tuttavia, anche l'integrazione con sistemi di retrieval non elimina i limiti nel giudizio e nel ragionamento: in alcuni scenari, sistemi tradizionali di information retrieval risultano più affidabili della generazione automatica.

Utilizzando strumenti locali come Ollama e Python è possibile implementare soluzioni che rispettano i criteri di riservatezza. Sperimentazioni con progetti open-source come Open WebUI e SearXNG hanno mostrato risultati interessanti con modelli di ragionamento come QWQ 32B, capaci di catena di pensiero. Tuttavia, i tempi di risposta rimangono lunghi, da 5 a 10 minuti, e il sistema rimane vulnerabile se le informazioni non sono disponibili online.

Standard di valutazione e requisiti normativi

⬆ Torna su

L'AI Act qualifica i sistemi utilizzati nell'amministrazione della giustizia come ad alto rischio, imponendo requisiti stringenti in termini di affidabilità, robustezza, trasparenza e controllo umano. L'instabilità documentata rappresenta un ostacolo diretto al rispetto di tali requisiti: un sistema che produce esiti divergenti a parità di condizioni non può garantire la tutela dei diritti fondamentali né la non discriminazione.

Gli studi suggeriscono la necessità di benchmark di stabilità: un'IA giuridica dovrebbe dimostrare di produrre risultati coerenti su insiemi di prompt semanticamente equivalenti. Senza questa verifica, ogni pretesa di affidabilità resta infondata. Il Consiglio degli Ordini Forensi d'Europa ha pubblicato una guida per l'uso responsabile dell'IA, evidenziando i rischi associati al trasferimento di dati fuori dall'UE e la necessità di conformarsi al GDPR.

Il mercato delle soluzioni AI per studi legali

⬆ Torna su

Nel panorama italiano si stanno sviluppando diverse soluzioni specializzate. Lexroom.ai, startup milanese, offre un prodotto per semplificare la ricerca legale permettendo di porre domande in linguaggio naturale e fornendo bozze di pareri con citazione delle fonti. TeamSystem propone Legal AI come assistente virtuale per bozze di contratti e pareri. Aptus.Ai, startup pisana che ha raccolto oltre quattro milioni di euro di finanziamenti, trasforma i documenti legali in versioni interattive.

Altre soluzioni includono Simpliciter, assistente legale addestrato su normativa e giurisprudenza italiana, e piattaforme internazionali come Harvey, adottata da studi legali globali per automazione di documenti e due diligence. Casetext, acquisita da Thomson Reuters, offre CoCounsel, descritto come primo assistente legale basato su AI per riassumere documenti e recuperare risorse legali.

Il ruolo irrinunciabile del professionista umano

⬆ Torna su

La documentazione analizzata converge su un punto: l'IA deve supportare il giurista senza sostituirlo. La Fédération des Barreaux d'Europe sottolinea che il controllo umano finale è essenziale: ogni output generato deve essere verificato per assicurare accuratezza e aggiornamento. L'integrazione delle competenze legali con l'IA generativa non significa sostituzione del giudizio professionale.

Paradossalmente, un'IA giuridica progettata correttamente potrebbe imporre una disciplina argomentativa minima, segnalando incoerenze e rendendo più difficile l'adozione di decisioni approssimative. Il diritto, fenomeno sociale prima che linguistico, richiede comprensione del contesto, responsabilità e capacità di bilanciare valori in conflitto. Elementi che, allo stato attuale, restano fuori dalla portata dei sistemi generativi.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'impiego degli LLM nel settore legale apre scenari complessi che coinvolgono la responsabilità professionale e la tenuta del sistema giudiziario. L'instabilità interpretativa dei modelli e il fenomeno delle allucinazioni pongono interrogativi sui livelli di diligenza richiesti agli avvocati che adottano tali strumenti.

  • Scenario 1: gli ordini professionali potrebbero introdurre linee guida più stringenti, estendendo i principi della guida europea all'uso responsabile dell'IA per disciplinare specificamente la verifica delle citazioni giurisprudenziali.
  • Scenario 2: la classificazione dei sistemi per la giustizia come ad alto rischio nell'AI Act potrebbe rallentarne l'adozione negli studi legali, privilegiando approcci ibridi come la tecnologia RAG combinata con sistemi di retrieval tradizionali.
  • Scenario 3: soluzioni specializzate come Lexroom.ai o Simpliciter potrebbero imporsi su modelli generalisti, riducendo i rischi legati al bias verso la common law e al linguaggio giuridico italiano.

Cosa monitorare

⬆ Torna su
  • L'evoluzione dei benchmark di stabilità per verificare la coerenza degli output su prompt semanticamente equivalenti.
  • Il rapporto tra tempi di risposta dei modelli di ragionamento e le esigenze operative degli studi legali.
  • Le ricadute disciplinari legate all'uso negligente di output non verificati in atti processuali.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • llm
  • ai
  • cybersecurity
  • data

Link utili

Apri l'articolo su DeafNews