Uni.Riz.
L'intelligenza artificiale sostituirà gli avvocati?

L'intelligenza artificiale sostituirà gli avvocati?

L'intelligenza artificiale ha già trasformato gli studi legali di mezzo mondo. Sostituirà anche gli avvocati?

16/03/2026

L'intelligenza artificiale ha già trasformato gli studi legali di mezzo mondo. Ma la domanda che tiene svegli i giuristi non è se l'AI cambierà la professione — è se la renderà obsoleta. C'è una scena che si ripete, con piccole variazioni, negli studi legali di tutto il mondo. Un partner senior che fissa lo schermo del computer mentre un sistema di intelligenza artificiale analizza in quarantasei secondi un contratto che avrebbe richiesto a un collaboratore junior due giorni interi di lavoro. Non c'è trionfo in quello sguardo. C'è qualcosa di più sottile: la consapevolezza che qualcosa di irreversibile è già accaduto e che la professione che ha scelto trent'anni fa non esiste più nella forma in cui l'aveva studiata. Non è fantascienza ed è già dentro i tribunali, le aule delle università di giurisprudenza, i documenti strategici degli ordini degli avvocati di tutto il mondo. L'intelligenza artificiale ha varcato la soglia del diritto — e nessuno ha davvero capito, ancora, cosa significhi. 

La macchina che legge contratti

Per capire dove siamo, occorre partire da dove siamo davvero. Non dai film di fantascienza, non dagli scenari catastrofici dei titoli di giornale, ma da quello che accade ogni giorno negli studi legali che contano. Strumenti come Harvey AI, Clio, Lexis+ AI, e le versioni avanzate di modelli generalisti come Claude o GPT-4 vengono già utilizzati quotidianamente per attività che un tempo richiedevano ore di lavoro umano qualificato. La revisione documentale — la cosiddetta document review — è il primo dominio conquistato. In un contenzioso di media complessità, i team legali possono trovarsi a dover esaminare decine di migliaia di documenti per identificare quelli rilevanti ai fini del processo. Un'attività che richiedeva eserciti di associate, fatturati astronomici e settimane di lavoro.

Oggi sistemi di AI riescono a classificare, etichettare e filtrare quegli stessi documenti in una frazione del tempo, con tassi di accuratezza che in molti casi superano quelli umani nella selezione di primo livello. 80% delle attività legali ripetitive automatizzabili secondo McKinsey 46s tempo medio di AI per analisi contrattuale base vs. 2 giorni umani 4× più veloce nella ricerca giurisprudenziale rispetto a metodi tradizionali 23% degli studi legali UK usa intelligenza artificiale generativa nel workflow (2025) Ma la document review è solo il livello superficiale. Più in profondità, l'intelligenza artificiale sta trasformando la ricerca giurisprudenziale — tradizionalmente il pane quotidiano dei giovani avvocati — la redazione di bozze contrattuali, l'analisi del rischio legale, la compliance regolamentare, la due diligence nelle operazioni di fusione e acquisizione. In alcuni paesi, sistemi predittivi vengono già utilizzati per stimare le probabilità di successo di un ricorso, analizzando migliaia di precedenti giudiziari e identificando pattern che sfuggirebbero all'occhio umano. 

Anatomia di una professione: cosa fa davvero un avvocato

Per valutare in modo serio la portata della disruption, occorre smontare la professione forense nelle sue componenti elementari. Un avvocato, nella sua pratica quotidiana, fa cose molto diverse tra loro — e il grado di vulnerabilità all'automazione varia radicalmente a seconda di quale funzione si stia considerando. Ci sono attività che si potrebbero definire ad alta intensità di informazione e bassa intensità di giudizio: la ricerca di precedenti, la redazione di contratti standard, la verifica della conformità normativa, la due diligence documentale. Sono attività che richiedono competenza tecnica, attenzione, tempo — ma che si basano su pattern riconoscibili, su regole codificate, su procedure replicabili. Qui l'intelligenza artificialeè già competitiva, e in molti casi superiore.

Poi ci sono le attività ad alta intensità di giudizio contestuale: la strategia processuale, la negoziazione, la consulenza su decisioni aziendali complesse, la gestione di situazioni di crisi. Attività che richiedono non solo conoscenza del diritto, ma lettura del contesto umano, valutazione dell'avversario, comprensione delle dinamiche di potere, intuizione — quella capacità di cogliere l'inespresso che nessun sistema attuale sa replicare in modo affidabile. 

Le attività legali per rischio di automazione

Alto rischio (già in corso): revisione documenti, ricerca giurisprudenziale, redazione contratti standard, compliance check, due diligence di primo livello Rischio medio (orizzonte 5-10 anni): redazione atti giudiziari rutinari, pareri legali su questioni consolidate, analisi predittiva del contenzioso.

Basso rischio (resistente all'automazione): strategia processuale complessa, negoziazione, relazione con il cliente in situazioni di crisi, advocacy in aula, interpretazione di diritto nuovo o ambiguo.

E poi c'è una terza categoria, spesso trascurata nel dibattito: la funzione fiduciaria. Un avvocato non è solo un fornitore di servizi tecnici — è un depositario di fiducia. Il cliente che gli affida una causa, un contratto, un segreto aziendale, non si aspetta solo competenza. Si aspetta lealtà, riservatezza, la certezza che qualcuno si batta per il suo interesse in modo incondizionato. È una relazione che il diritto stesso presidia con norme stringenti — il segreto professionale, il conflitto di interessi, il mandato fiduciario. Un'AI non può essere fedele. Può essere utile.

Il caso Roberto Mata: quando l'intelligenza artificiale ha inventato la legge

Nel maggio del 2023, il tribunale del distretto meridionale di New York si trovò di fronte a una situazione senza precedenti. Un avvocato, Roberto Mata, aveva citato nella propria memoria difensiva una serie di precedenti giurisprudenziali — casi reali, con nomi reali, numeri di sentenza reali, estratti di motivazioni reali. Peccato che quei casi non esistessero. Li aveva inventati ChatGPT, e l'avvocato li aveva inseriti senza verificarli. Il giudice P. Kevin Castel fu lapidario: definì la condotta «un abbandono delle responsabilità professionali» e irrogò sanzioni ai legali coinvolti. Il caso fece il giro del mondo e diventò la storia simbolo dei rischi dell'AI nel diritto. Non perché l'AI avesse commesso un errore tecnico — in un certo senso aveva fatto esattamente quello per cui era progettata, generare testo plausibile — ma perché l'avvocato aveva abdicato al suo ruolo di garante della verità processuale.

L'episodio illumina un paradosso centrale: l'AI è uno strumento straordinariamente potente nelle mani di un avvocato che sa usarla criticamente. E uno strumento potenzialmente catastrofico nelle mani di chi si fida di essa ciecamente. La stessa caratteristica che la rende utile — la capacità di generare testo fluente e apparentemente autorevole — la rende pericolosa quando chi la usa non ha la competenza per verificarne l'output. 

Il modello economico del diritto: la fatturazione oraria e il suo tramonto

Per comprendere davvero perché l'AI sia una forza così dirompente per la professione forense, bisogna passare dalla tecnologia all'economia. Il modello su cui si regge il mercato legale in buona parte del mondo occidentale è la fatturazione oraria. Il valore dell'avvocato è — formalmente — il tempo che dedica al cliente. Più ore, più valore. Più valore, più fatturato. Questo sistema ha una logica perversa incorporata: premiare la lentezza, incentivare la ridondanza, penalizzare l'efficienza. Un avvocato che risolve un problema in un'ora è economicamente meno prezioso di uno che impiega tre giorni a risolverlo, a parità di risultato. Il mercato lo sa, i clienti lo sanno, e da anni si discute di alternative — i fixed fee, le success fee, i modelli ibridi. Ma la fatturazione oraria sopravvive, radicata nelle abitudini e negli interessi degli operatori. 

L'AI demolisce questo modello dal basso. Se un sistema automatizzato riduce a pochi minuti un'attività che richiedeva due giorni di lavoro di un associate, l'avvocato ha due strade: continuare a fatturare due giorni — e il cliente, prima o poi, lo scoprirà — oppure adeguarsi alla nuova realtà e fatturare meno. In entrambi i casi, il modello economico cambia. Irreversibilmente. I grandi studi anglosassoni stanno già sperimentando strutture di prezzo radicalmente diverse. Clifford Chance, Linklaters, Allen & Overy hanno investito decine di milioni in piattaforme AI proprietarie, non per offrire lo stesso servizio più lentamente, ma per erogare servizi nuovi a prezzi nuovi. Il movimento legal tech, che sembrava destinato a restare una nicchia, è diventato mainstream.

L'accesso alla giustizia: l'argomento che cambia tutto

C'è però un versante del dibattito che viene spesso trascurato nelle discussioni sulla disruption tecnologica del diritto — e che potrebbe essere, alla fine, quello più importante. Il problema dell'accesso alla giustizia. In Italia, come in quasi tutti i paesi occidentali, la realtà è che una parte significativa della popolazione non ha accesso reale a una consulenza legale di qualità. I costi sono proibitivi per il ceto medio, figuriamoci per chi è in difficoltà economica. Il patrocinio a spese dello Stato esiste, ma è strutturalmente insufficiente. I centri di ascolto degli ordini forensi sono preziosi ma limitati. Il risultato è una giustizia a due velocità: chi può permettersi avvocati bravi, e chi deve arrangiarsi. In questo contesto, l'AI rappresenta qualcosa di radicalmente diverso da una minaccia alla professione: è una potenziale democratizzazione dell'accesso al diritto. Strumenti come DoNotPay — il chatbot che ha aiutato milioni di persone a contestare multe, rescindere abbonamenti indesiderati, avanzare richieste di risarcimento — o i servizi di legal tech che permettono a piccoli imprenditori di redigere contratti conformi alla legge a costi contenuti, stanno già riducendo quel gap. 

Il problema dell'accesso alla giustizia in numeri

La tensione è reale: ciò che erode il modello di business degli studi legali tradizionali potrebbe, paradossalmente, essere la soluzione al problema di giustizia più antico e irrisolto delle democrazie liberali. Un'AI che aiuta un lavoratore a comprendere se è stato licenziato illegittimamente, o un inquilino a capire se il suo contratto di locazione contiene clausole abusive, non è una minaccia alla professione forense — è un'estensione del suo mandato ideale. La questione della responsabilità: chi risponde quando la macchina sbaglia? Ma è qui che il dibattito tecnico si scontra con il problema più profondo e irrisolto: la responsabilità. Nel diritto, la responsabilità non è un optional. È la struttura portante dell'intero sistema. Quando un medico sbaglia, risponde lui. Quando un avvocato commette una negligenza, risponde lui — con il suo patrimonio, con la sua reputazione, con la sua iscrizione all'ordine. Questo sistema di responsabilità personale è il fondamento della fiducia che i clienti ripongono nei professionisti. Quando l'AI è coinvolta nel processo decisionale, chi risponde?

Il nodo etico dell'intelligenza artificiale: bias, discriminazionee il diritto che non si vede

C'è un'altra dimensione del problema che merita attenzione e che raramente emerge nelle discussioni mainstream: il rischio che l'AI nel diritto non sia solo meno capace degli avvocati umani in certi ambiti, ma attivamente discriminatoria in modi sistematici e invisibili. I sistemi di AI imparano dai dati storici. Il diritto è pieno di storia, e molta di quella storia è storia di discriminazione. Sentenze che riflettevano pregiudizi di classe, di genere, di etnia. Pratiche contrattuali che replicavano squilibri di potere strutturali. Codici che codificavano norme sociali oggi riconosciute come ingiuste.

Se un sistema di AI viene addestrato su questo corpus, rischia di apprendere e replicare non solo la logica del diritto, ma anche i suoi vizi storici. Il caso più documentato è quello dei sistemi di valutazione del rischio di recidiva usati in alcuni stati americani — come COMPAS — che sono stati accusati di penalizzare sistematicamente i detenuti neri rispetto ai bianchi, replicando pattern discriminatori presenti nei dati di addestramento. Questi sistemi non sono avvocati. Ma illustrano in modo vivido cosa succede quando si delega a una macchina una decisione che ha conseguenze profonde sulla vita delle persone. Nel diritto commerciale questo rischio è meno drammatico ma non assente. Un sistema che analizza contratti e suggerisce clausole "standard" potrebbe codificare e perpetuare squilibri di potere già presenti nei contratti su cui è stato addestrato, rendendoli ancora più invisibili perché nascosti nell'autorità apparente di un algoritmo. 

Il futuro dell'intelligenza artificiale che si sta costruendo: tre scenari possibili

Di fronte a tutto questo, è possibile tracciare almeno tre scenari per il futuro della professione forense nell'era dell'AI. Non previsioni — il futuro tecnologico è troppo incerto per questo — ma orizzonti di possibilità, utili per orientare le scelte di oggi.

Il primo scenario è quello della sostituzione progressiva.

L'AI continua a migliorare più rapidamente di quanto la professione riesca ad adattarsi. Le attività a bassa intensità di giudizio vengono automatizzate, il mercato del lavoro legale si contrae drasticamente, sopravvivono solo gli avvocati che operano ai livelli più alti di complessità e valore aggiunto. Il numero di avvocati si riduce drasticamente. L'accesso alla giustizia, paradossalmente, migliora — ma la professione come la conosciamo scompare.

Il secondo scenario è quello della complementarità aumentata.

L'AI diventa uno strumento nelle mani degli avvocati, che possono offrire servizi migliori, più rapidi, a prezzi più bassi. La domanda di servizi legali aumenta — proprio perché i costi scendono — e la professione cresce, trasformandosi. L'avvocato diventa un orchestratore di sistemi automatizzati e di giudizio umano, con competenze tecnologiche che si affiancano a quelle giuridiche. Il mercato si allarga, si differenzia, si democratizza.

Il terzo scenario è quello della biforcazione radicale.

Il mercato si divide in due: da un lato sistemi AI che gestiscono la massa delle questioni legali ordinarie, accessibili a tutti a costo marginale quasi zero; dall'altro un ristretto numero di avvocati altamente specializzati che gestiscono le questioni complesse, ad altissimo valore, per clienti istituzionali o in situazioni di crisi. La classe media della professione forense — gli avvocati di media complessità, quelli che oggi fanno divorzi, compravendite, piccole controversie commerciali — è quella più esposta.

Il mercato si divide in due: da un lato sistemi AI che gestiscono la massa delle questioni legali ordinarie, accessibili a tutti a costo marginale quasi zero; dall'altro un ristretto numero di avvocati altamente specializzati che gestiscono le questioni complesse, ad altissimo valore, per clienti istituzionali o in situazioni di crisi. La classe media della professione forense — gli avvocati di media complessità, quelli che oggi fanno divorzi, compravendite, piccole controversie commerciali — è quella più esposta.

Intelligenza artificiale: cosa dovrebbero fare gli avvocati (e le università di giurisprudenza) oggi 

La domanda che rimane, alla fine di questa analisi, non è se l'AI trasformerà la professione forense — la risposta è già sì, e il processo è già in corso. La domanda è: chi guiderà questa trasformazione, e in che direzione? Gli avvocati che ignorano l'AI lo fanno a proprio rischio. Non perché saranno sostituiti domani, ma perché le loro pratiche diventeranno progressivamente meno competitive, più lente, più costose rispetto a quelle dei colleghi che hanno integrato questi strumenti. L'AI non è un'opzione — è una competenza professionale emergente, e come tale andrà acquisita. Ma l'acquisizione passiva non basta. Gli avvocati hanno qualcosa che nessun tecnologo può replicare: la comprensione profonda di cosa il diritto serve, di quali valori presidia, di dove le sue regole riflettono principi irrinunciabili e dove invece sono solo abitudine consolidata. Questa comprensione è indispensabile per guidare lo sviluppo dell'AI nel diritto in modo che serva la giustizia, non solo l'efficienza. Le università di giurisprudenza, nel frattempo, stanno cominciando a rispondere — lentamente, come sempre. Corsi di legal tech, cliniche di accesso alla giustizia digitale, insegnamento dei fondamenti dell'AI come parte della formazione giuridica di base. Non abbastanza, non abbastanza in fretta. 

Sparirà l'avvocato? La risposta onesta è: non lo sappiamo. Sappiamo che la professione forense come è stata praticata negli ultimi due secoli sta cambiando in modo profondo e irreversibile. Sappiamo che alcune delle sue funzioni sono già parzialmente automatizzate, e che questa automatizzazione accelererà. Sappiamo che il modello economico su cui si regge deve essere ripensato. Ma sappiamo anche qualcos'altro. Il diritto non è solo tecnica. È la forma che le società danno al loro conflitto, il linguaggio con cui traducono i valori in regole, lo strumento con cui i più deboli possono — almeno in linea di principio — resistere ai più forti. Questa funzione sociale del diritto non è automatizzabile, perché non è una questione di efficienza. È una questione di potere, di legittimità, di fiducia collettiva. L'avvocato che sopravviverà all'età dell'AI non sarà quello che resiste alla tecnologia. Sarà quello che capisce il diritto abbastanza profondamente da sapere dove la macchina può aiutarlo, e dove invece deve restare umano. Non è una piccola sfida. Ma non è nemmeno la fine della professione. È, forse, il suo momento più importante.

(fonte immagine: Freepik)

Condividi questo articolo su: