Studi legali e nuove regole sull’AI: un’analisi critica delle implicazioni, responsabilità etiche e dell’adeguamento normativo
- Himmel Advisors

- 21 set
- Tempo di lettura: 5 min

L’intelligenza artificiale, ormai parte integrante della nostra società, sta ridisegnando i confini di molteplici professioni, incluso il mondo giuridico. L'approvazione in via definitiva della Legge italiana sull’Intelligenza Artificiale rappresenta una pietra miliare che non solo incita i legali a ripensare il proprio ruolo, ma impone anche un nuovo framework normativo ed etico per adattarsi ai cambiamenti in atto.
In data 17 settembre 2025, il Senato ha approvato in via definitiva la legge italiana sull’Intelligenza Artificiale. Si tratta del primo quadro normativo nazionale in Europa che disciplina sviluppo, adozione e governance dei sistemi di IA nel rispetto dei principi costituzionali e dei diritti fondamentali e in piena coerenza con l’AI Act europeo. La legge si fonda su princìpi di uso antropocentrico, trasparente e sicuro dell’IA, con particolare attenzione a innovazione, cybersicurezza, accessibilità e tutela della riservatezza. Interviene in modo organico su più settori che possono beneficiare di questa nuova tecnologia – sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – prevedendo garanzie di tracciabilità, responsabilità umana e centralità della decisione finale di una persona fisica.
Nuovi doveri deontologici e responsabilità etiche
Con l'implementazione di strumenti di IA, gli avvocati devono affrontare sfide etiche significative. Non è sufficiente integrare nuove tecnologie senza una riflessione profonda sui rapporti fiduciari con i clienti. La trasparenza è fondamentale, e come indicato nell’articolo 13 del recente Ddl, gli avvocati devono "informare i clienti non solo dell’uso di IA, ma anche delle sue limitazioni e delle criticità, in modo che possano prendere decisioni informate". Questo impegno alla trasparenza richiede una comunicazione chiara, evitando il linguaggio tecnico che potrebbe confondere i clienti meno esperti.
Ad esempio, alcuni grandi studi legali utilizzano software di intelligenza artificiale per automatizzare i processi di revisione dei contratti. Questi strumenti possono analizzare rapidamente migliaia di pagine, identificare clausole chiave e persino suggerire modifiche standard, riducendo significativamente il tempo necessario per la due diligence. A tale scopo è essenziale che i legali supervisionino gli output dell'IA per evitare errori potenzialmente dannosi e garantire che gli algoritmi rispettino le normative sulla privacy e la sicurezza dei dati. Si pensi alla Sentenza del Tribunale di Firenze, 14 marzo 2025. Nel corso del giudizio l'avvocato ammette che i riferimenti giurisprudenziali citati nell’atto sono stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’Intelligenza Artificiale, del cui utilizzo lo stesso avvocato sostiene di non essere stato a conoscenza. L’Intelligenza Articificiale (IA) "avrebbe generato risultati errati che possono essere qualificati con il fenomeno delle cosiddette allucinazioni di intelligenza artificiale, che si verifica quando l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri riferibili a sentenze della Corte di Cassazione". L'avvocato, pur riconoscendo l’omesso controllo sui dati così ottenuti, ha chiesto che il giudice stralciasse tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva. Sul punto, la controparte ha però insistito per la condanna per "lite temeraria" (o meglio per "difesa temeraria") per aver l'avvocato in questo modo tentato di influenzare la decisione del giudice. Il Tribunale ha tuttavia osservato che nel caso specifico "l’indicazione di tali riferimenti giurisprudenziali non era oggettivamente finalizzata ad influenzare il collegio". Inoltre la condanna per "lite temeraria" (o difesa temeraria) impone, a chi chiede la condanna, una pur generica dimostrazione (o quanto meno allegazione) "della direzione dei supposti danni” (cfr. Cass., sez. II, sentenza n. 7620 del 26 marzo 2013). E nel caso di specie nulla di tutto ciò era stato dimostrato o allegato dal richiedente. . Per questi motivi il Tribunale ha ritenuto, nonostante tutto, che la richiesta risarcitaoria non potesse essere accolta
Opportunità di contenzioso e nuove aree di specializzazione
L'evoluzione tecnologica porta con sé nuove problematiche dal punto di vista, anche legale. Gli avvocati devono infatti prepararsi ad affrontare contenziosi legati a malfunzionamenti algoritmici, come indicato nell’articolo 17 del sopracitato Decreto. Analogamente, sarà cruciale acquisire competenze specifiche in cyberlaw (una tematica di cui ci occuperemo prossimamente) e di compliance in materia IA, affrontando questioni come la trasparenza e il diritto d’autore. Questa specializzazione non solo amplia l'ambito d'azione dei legali, ma li posiziona anche come figure essenziali nel dibattito sulle implicazioni dell’IA.
Alcune piattaforme di intelligenza artificiale sono in grado di prevedere gli esiti di una causa basandosi sulla giurisprudenza. Questo aiuta gli avvocati a sviluppare strategie più informate e a gestire le aspettative dei clienti. In tal caso gli avvocati devono valutare gli aspetti etici ma anche legali di tali piattaforme e presentare questi dati ai clienti in modo trasparente, spiegando i limiti delle previsioni basate sull'IA e le variabili umane che potrebbero influenzare l'esito reale.
Politiche interne e governance strategica
Gli studi legali devono strutturare politiche interne ben definite che regolano l’uso di queste tecnologie. Ciò significa stabilire linee guida chiare su quando e come utilizzare strumenti di IA per la ricerca giurisprudenziale o il drafting automatico, assicurando al contempo che vi sia un controllo umano rigoroso sugli output generati per evitare errori che potrebbero minare la fiducia nel sistema legale. Nei contratti con i clienti dovrebbero essere presenti clausole ad hoc che rinviano alle politiche interne e alle strategie di governance dello Studio.
Formazione continua e sviluppo professionale
IA sì, ma previa formazione. L’adozione dell’IA non esclude la necessità di formazione continua. Gli avvocati devono approfondire la comprensione dei meccanismi tecnologici alla base dell’IA, non solo in termini di utilizzo pratico, ma anche delle responsabilità legali e deontologiche associate. Devono seguire corsi su temi emergenti come la protezione dei dati e le normative sugli algoritmi, garantendo che il loro sapere sia sempre aggiornato e adeguato al contesto attuale. Attenzione, non qualsiasi corso di formazione ma un corso ad hoc per lo Studio, in grado di calare sulle esigenze dei professionisti e dei propri clienti.
Sicurezza dei dati e conformità normativa
Un aspetto critico dell’integrazione dell’IA è rappresentato dalla protezione dei dati. Gli Studi legali devono utilizzare software certificati e preferibilmente ospitati in data center UE, rispettando rigorosamente il GDPR ed il recentissimo Data Act. Adottare audit periodici sui processi dell’IA può garantire che le tecnologie usate siano sicure, tracciabili e conformi alle normative vigenti, anche settoriali. Questo approccio proattivo alla sicurezza dei dati (anche non personali) non è solo un obbligo normativo, ma anche un elemento chiave per mantenere la fiducia del cliente.
Conclusione
L’incorporazione dell'intelligenza artificiale negli Studi legali rappresenta una complessa intersezione di innovazione tecnologica e responsabilità etica. Trasformare un obbligo normativo in un vantaggio competitivo richiede non solo l’adozione di strumenti avanzati, ma anche un impegno allineato con i valori etici e la protezione dei diritti dei clienti. La sfida per gli studi legali consiste nel combinare l’uso strategico dell’IA con un forte sistema di governance etica e deontologica, diventando attori chiave in un panorama legale in continua evoluzione. In definitiva, quegli studi che sapranno adattarsi non solo sopravvivranno, ma prospereranno in un futuro in cui l’IA sarà integrata in ogni ambito della pratica legale.
Sei un legale e hai bisogno di supporto? Contattaci!

