Avvocato e Intelligenza Artificiale: quando l’IA causa un danno, chi risponde?

L’avvocato che usa l’intelligenza artificiale senza le dovute cautele risponde personalmente per i danni causati al cliente. Scopri i tuoi diritti, la normativa vigente e come tutelarti.

L’IA nello Studio Legale: un’opportunità con rischi reali per l’assistito

Sempre più avvocati utilizzano sistemi di intelligenza artificiale per redigere atti, analizzare contratti, ricercare giurisprudenza e predisporre pareri. Si tratta di una trasformazione tecnologica profonda, che promette efficienza ma introduce rischi nuovi e concreti per chi affida i propri interessi a un professionista legale.

La domanda che molti cittadini si pongono — spesso quando il danno è già avvenuto — è questa: se l’intelligenza artificiale sbaglia, chi ne risponde?

La risposta che il diritto vigente fornisce è netta: risponde sempre e comunque l’avvocato. La tecnologia non attenua la responsabilità professionale, ne ridefinisce semplicemente i confini. Capire questi confini è il primo passo per tutelare i propri diritti.​

Il Quadro Normativo: AI Act Europeo e Legge Italiana 132/2025

Il Regolamento (UE) 2024/1689, comunemente noto come AI Act, è pienamente operativo nelle sue componenti essenziali. È il primo quadro normativo organico al mondo che regola la progettazione, lo sviluppo e l’uso dei sistemi di intelligenza artificiale, adottando un approccio graduato basato sul rischio.​

In parallelo, il legislatore italiano ha approvato la Legge n. 132 del 23 settembre 2025 — pubblicata in Gazzetta Ufficiale ed entrata in vigore il 10 ottobre 2025 — che definisce il perimetro della responsabilità civile e professionale sul territorio nazionale.​

Questi due strumenti normativi si integrano: l’AI Act fissa l’architettura del mercato unico europeo, mentre la legge italiana la traduce in obblighi operativi concreti per i professionisti. Insieme, costituiscono il riferimento normativo di ogni controversia che abbia al centro l’uso dell’IA da parte di un avvocato.​

Il Diritto dell’Assistito a essere informato

Uno dei pilastri della nuova disciplina è l’obbligo di trasparenza. L’art. 13 della Legge 132/2025 stabilisce che ogni professionista — avvocati inclusi — deve comunicare al cliente, con linguaggio chiaro, semplice ed esaustivo, se e come utilizza sistemi di intelligenza artificiale nello svolgimento dell’incarico.​

Questo introduce un vero e proprio diritto all’informazione tecnologica in capo all’assistito. Se il tuo avvocato non ti ha mai comunicato di avvalersi di strumenti AI, e da questo utilizzo è derivato un errore professionale, si configura già una prima e autonoma violazione della normativa vigente.​

L’obbligo informativo non è una formalità: il cliente deve poter valutare consapevolmente i rischi connessi all’uso di questi strumenti. Un avvocato che omette questa comunicazione viola il rapporto fiduciario alla base del mandato professionale.​

Le “Allucinazioni” dell’IA: il rischio più insidioso

Il fenomeno delle cosiddette “allucinazioni” è tra i rischi più gravi che l’uso dell’IA introduce nella pratica legale. Si tratta della tendenza dei modelli di intelligenza artificiale generativa a produrre risposte apparentemente coerenti ma fattualmente errate: citazioni giurisprudenziali inesistenti, riferimenti normativi inventati, interpretazioni non conformi al diritto vigente.​

Un avvocato che inserisce in un atto processuale sentenze generate dall’IA senza verificarle commette un errore professionale grave — e risponde di quell’errore davanti al cliente, al giudice e al Consiglio dell’Ordine.​

Il TAR Lombardia – Milano, Sezione V, con la sentenza del 21 ottobre 2025, ha stigmatizzato con chiarezza questo comportamento, richiamando l’art. 88 c.p.c. (dovere di lealtà e probità) e trasmettendo gli atti al Consiglio dell’Ordine degli Avvocati di Milano per le valutazioni disciplinari. Il Tribunale ha definito la firma sull’atto difensivo come garanzia di veridicità delle fonti: la provenienza automatizzata del contenuto non costituisce in alcun modo una causa di esonero.​

Questo precedente è fondamentale per chiunque stia valutando di agire contro un avvocato che abbia usato l’IA in modo improprio o non verificato.

La Responsabilità Civile: cosa dice il codice civile?

Sul piano del diritto civile, i parametri applicabili sono quelli generali della responsabilità professionale, oggi aggravati dai nuovi obblighi normativi. In particolare:

  • Art. 1176 c.c.: il professionista intellettuale è tenuto a una diligenza qualificata, commisurata alla natura dell’attività. L’uso negligente dell’IA integra violazione di questo standard.​
  • Art. 1218 c.c.: in caso di inadempimento contrattuale — ad esempio, redazione di un atto difensivo errato a causa di un output AI non verificato — l’avvocato risponde per tutti i danni conseguenti.​
  • Art. 2043 c.c.: se il danno si estende a terzi, può configurarsi anche una responsabilità extracontrattuale.​

L’introduzione di strumenti di IA non attenua la responsabilità: anzi, ne amplia la portata, poiché introduce ulteriori obblighi di controllo, documentazione e trasparenza. Il principio è coerente con le linee guida del Consiglio degli Ordini Forensi d’Europa (CCBE): l’avvocato è l’unico responsabile dei contenuti prodotti, indipendentemente dal mezzo utilizzato.

Il Profilo Deontologico: Competenza, Diligenza, Correttezza

Il Codice Deontologico Forense impone all’avvocato di mantenere un livello adeguato di competenza, diligenza e correttezza. Questi doveri si estendono all’uso degli strumenti tecnologici: ignorare i limiti di un sistema AI o affidarsi ciecamente a risultati automatizzati configura negligenza professionale.​

Le Linee Guida del COA di Milano (2024) e le raccomandazioni del Consiglio Nazionale Forense ribadiscono che il controllo umano (“human-in-the-loop”) è condizione imprescindibile nell’uso dell’IA in ambito legale. La decisione finale e la responsabilità devono sempre rimanere in capo al professionista.

Un avvocato che viola questi principi può essere soggetto sia a procedimento disciplinare davanti all’Ordine sia ad azione civile risarcitoria da parte del cliente danneggiato.

Cosa Fare se hai subito un Danno per Colpa dell’IA del Tuo Avvocato?

Se ritieni di aver subito un danno riconducibile all’uso improprio o negligente dell’intelligenza artificiale da parte del tuo legale, puoi:

  1. Richiedere copia dell’atto o del parere che ti ha causato danno, per verificare la presenza di errori o di fonti inesistenti;
  2. Verificare se l’avvocato ti ha informato dell’utilizzo di strumenti AI, come richiesto dall’art. 13 L. 132/2025;
  3. Valutare l’azione risarcitoria civile, quantificando il danno subito (perdita di una causa, decadenza da un termine, pregiudizio patrimoniale derivante da un parere errato);
  4. Presentare un esposto al Consiglio dell’Ordine degli Avvocati competente, per avviare un procedimento disciplinare;
  5. Verificare la copertura assicurativa del professionista, tenendo conto che le polizze potrebbero non coprire i danni derivanti da uso negligente o non dichiarato dell’IA​

Studio Salata: consulenza per chi ha subito danni da Malpractice Legale

Il diritto dell’intelligenza artificiale è ancora in fase di consolidamento, ma i principi cardine sono già normativamente definiti e giurisprudenzialmente confermati. La responsabilità del professionista che usa l’IA senza le dovute cautele è piena, personale e non delegabile alla macchina.

Se hai subito un danno a causa di un errore del tuo avvocato — connesso o meno all’uso dell’intelligenza artificiale — Studio Salata offre una consulenza accurata per valutare la tua posizione, verificare la fondatezza di una richiesta risarcitoria e assisterti in ogni fase della tutela dei tuoi diritti.

P.S. A scanso di equivoci: anche questo articolo è stato scritto con l’uso AI, ma verificato tramite due primarie banche dati giuridiche!

Categorie del Blog

Richiedi consulenza preliminare gratuita

    Cosa dicono di noi i nostri assistiti