Il paradosso degli avvocati che addestrano, pagando, l'intelligenza artificiale. L'Osservatorio dell'Ordine di Milano
Nell’ambito della rubrica sull’IA, torniamo a indagare l’impatto sul mondo della giustizia. Rispetto alle applicazioni riservate alla magistratura (leggi qui La riserva di umanità del giudice) guardando al mondo degli avvocati lo scenario cambia radicalmente.
Formazione a macchia di leopardo
All’indomani dell’entrata in vigore della legge 132/2025, Il Consiglio nazionale forense ha emanato una circolare per disciplinare l’indicazione della “clausola IA”, ovvero l’obbligo di informare esplicitamente il cliente che il legale può ricorrere a strumenti di IA, nel proprio mandato. Al professionista resta ovviamente la vigilanza e la supervisione sugli atti.
La formazione all’addestramento e uso dei sistemi di IA non è stata tipizzata dagli organi centrali di categoria e ordini locali e organismi di varia natura stanno provvedendo autonomamente a macchia di leopardo alla informazione e formazione agli iscritti. Dal sito ufficiale di Cnf e Fondazione per l’Avvocatura non risultano contenuti specifici relativi all’IA. Al momento i legali di fatto sperimentano gli usi dell’IA, contribuendo ad addestrare i tool, e in sostanza anziché essere agevolati per questa sperimentazione, la pagano.
L’Osservatorio di Milano
L’Ordine degli Avvocati di Milano ha intanto istituito un organismo di studio specifico per compilare una “Carta dei principi” e varato l’Osservatorio sull’IA. Vi hanno aderito 21 delle 24 realtà nazionali che offrono la sezione IA integrata alle banche dati “tradizionali” (sono circa 30 le piattaforme oggi disponibili), accessibile con un costo integrativo aggiuntivo ai servizi in abbonamento. L’Osservatorio offre una valutazione dei prodotti, filtrandoli in base a: conservazione dati (UE), utilizzo dei dati, infrastrutture, diritti di IP in output. “Non testiamo i sistemi, ci limitiamo a riassumere in maniera uniforme le schede che forniscono le varie piattaforme per descrivere il loro prodotto, e le valutiamo in base ai “filtri” che riteniamo utili – spiega l’avvocato Giuseppe Vaciago, attuale referente dell’Osservatorio – Abbiamo osservato questi tool, sul mercato ci sono anche piattaforme che arrivano da paesi diversi dagli Usa, è ovvio che il servizio migliore per noi sarà quello che tutela meglio i diritti, e i dati, dei nostri clienti. La speranza è che il CNF possa fornire almeno un applicativo gratuito alla categoria ma al momento l’IA non è gratis ed è difficile che possa esserlo. Intanto l’obiettivo dell’Ordine è tracciare una linea di demarcazione seria e porre al centro la questione che questi sistemi devono essere usati nel rispetto della legge, dell’etica e della deontologia. Perché quel che vedremo nel 2026, che già cominciamo a vedere, è il proliferare di casi di “allucinazioni” già sanzionati dai giudici. Senza dimenticare gli aspetti più critici e delicati, legati per esempio appunto al trattamento dei dati, personali sensibili. Il rischio è che dati confidenziali e sensibili siano raccolti e usati da una ingegneria sociale che funziona su prompting del quale non sappiamo molto, non sappiamo come funziona; sappiamo che è probabilistica e statistica ma nessuno di noi è in grado dire se questi dati oggi saranno restituiti a qualcun altro, nel corso di una successiva ricerca. E’ vero che già con la digitalizzazione abbiamo messo in mano a un servizio di cloud esterni i nostri dati, ad un servizio distorage al quale chiedevamo di conservarli e che anche lì esisteva il rischio di “violazioni”, ma gli algoritmi legati ai modelli di apprendimento non ci offrono oggi alcuna certificazione né indicazione tanto meno rassicurazione su come saranno usati questi dati”.
