L’Intelligenza Artificiale sta trasformando profondamente il panorama giuridico e le professioni legali in generale, promuovendo un cambiamento dei metodi di lavoro, degli strumenti da utilizzare, dei rapporti tra le parti in causa.
Il 20 dicembre 2024 la competente Commissione del Senato francese ha pubblicato un rapporto proprio sull’ AI e le professioni legali, allo scopo di fare luce sia sui vantaggi di produttività, risparmio di tempo, migliore accesso alla legge e prevedibilità della giustizia, ma anche sui rischi di disomogeneità nell’accesso e nella formazione dei giuristi e di disparità di investimento tra il settore privato e pubblico.
Il “N° 216 Senat Session Ordinaire de 2024-2025”, quindi, da una parte riconosce il potenziale dell’intelligenza artificiale, soprattutto generativa, in ambito giuridico, dall’altra, però, pone l’attenzione su aspetti che devono mantenere una natura prevalentemente umana, sfuggendo a un’eccessiva automatizzazione.
Innanzitutto, uno di tali fondamentali aspetti, come sottolineato da un articolo del Sole24Ore dello scorso gennaio, relativo alla rubrica “L’intelligenza artificiale in studio”, è il ragionamento giuridico. Il sillogismo giuridico è un metodo di ragionamento deduttivo che si basa sul modello aristotelico di sillogismo: premessa maggiore (nel nostro caso: la norma), premessa minore (il fatto) e conclusione logica (applicazione della norma al caso concreto di specie). È chiaro che si tratta di un ragionamento razionale, metodologico, dal generale al particolare, tipico dell’intelligenza umana, e non proprio imitabile da tecnologie allenate con una grande quantità di dati, che danno risposte sulla base di algoritmi standardizzati, senza elaborare un effettivo ragionamento da cui derivi una conclusione pertinente e consequenziale alle premesse. L’utilizzo dell’AI per cercare risposte in ambito giuridico, oltre a comportare difficoltà nel motivare scelte e decisioni giudiziarie, può rivelarsi del tutto disfunzionale. Infatti, i modelli di intelligenza artificiale generativa spesso commettono errori, che devono essere necessariamente individuati e corretti da un operatore umano, appianando così il vantaggio della produttività che l’impiego di un sistema del genere dovrebbe garantire, ove fosse indubbiamente preciso e senza alcun rischio di allucinazioni.
Un altro aspetto su cui è importante porre l’attenzione è l’esigenza di trovare un equilibrio tra l’innovazione tecnologica e i principi etici e costituzionali, sostanziali in tutti gli ordinamenti degli Stati europei. L’utilizzo dei modelli di AI in ambito giuridico è sicuramente funzionale ad ampliare e favorire l’accessibilità e la comprensibilità del diritto anche ai non giuristi, ma, d’altra parte, non essendo questi degli esperti, avrebbero più difficoltà a scovare eventuali errori, scambiando tali sistemi non supervisionati per strumenti efficaci di consulenza legale, in grado di sostituire perfettamente professionisti legali, e affidandosi completamente a risposte prodotte da algoritmi.
Un altro problema che si pone con riguardo ai valori costituzionali è la conciliazione con il diritto alla protezione dei dati personali. Sappiamo che i software di intelligenza artificiale sono addestrati sulla base di training sets: vengono dati loro in pasto grandi quantità di dati, che permettono al modello di apprendere da essi e formulare dei pattern da seguire per dare risposte assimilabili a quelle che darebbe l’intelligenza umana. Nelle professioni legali possiamo immaginare che questo meccanismo operativo andrebbe senz’altro a ledere non solo il diritto alla privacy dei clienti, delle parti coinvolte in precedenti giurisdizionali e di quelle di una causa in corso, ma anche degli operatori del diritto, dai magistrati ai difensori di parte.
Nell’ultimo decennio, in risposta all’enorme diffusione di nuove tecnologie e al forte impatto sociale ed economico che esse hanno avuto, vi sono stati numerosi interventi normativi, comunitari e nazionali, proprio su questo tema. È fondamentale menzionare qui il Regolamento UE 2016/679 (GDPR), adottato dal Parlamento europeo e dal Consiglio, avente ad oggetto la protezione dei dati personali delle sole persone fisiche e la libera circolazione di tali dati all’interno dell’UE, e il Regolamento UE 2024/1689 (AI Act), approvato dal Consiglio dell’Unione Europea, che mira a creare un quadro normativo che garantisca che i sistemi di AI immessi sul mercato europeo e utilizzati nell’UE rispettino i diritti fondamentali e i valori dell’Unione, senza togliere spazio all’innovazione e agli investimenti nel settore.
Nel primo, vi sono, tra gli altri, tre articoli essenziali. L’articolo 5, che stabilisce i principi applicabili al trattamento dei dati personali, per dirne alcuni: liceità, correttezza, trasparenza, minimizzazione dei dati, limitazione della finalità del trattamento e della conservazione dei dati, il principio di accountability. L’articolo 22, che riguarda il processo decisionale automatizzato, inclusa la profilazione, relativo alle persone fisiche. Esso riconosce e garantisce il diritto dell’interessato a non essere sottoposto a decisioni basate unicamente su trattamenti automatizzati che producano effetti giuridici o che incidano significativamente sulla sua persona, tra cui vi rientrano naturalmente anche le decisioni giudiziarie che, producendo effetti legali, non possono essere interamente delegate all’intelligenza artificiale. Infine, l’articolo 25, concernente i principi di protection by design (fin dalla progettazione di un sistema o processo) e by default (cioè per impostazione predefinita), impone ai titolari del trattamento l’adozione di misure tecniche ed organizzative adeguate ad assicurare che siano trattati solo i dati personali necessari per una specifica finalità.
Il Regolamento sull’AI, invece, classifica i sistemi di intelligenza artificiale per il settore giudiziario come strumenti ad “alto rischio”, imponendo una serie di requisiti rigorosi come: la trasparenza sugli algoritmi e i dati utilizzati, l’obbligatoria supervisione umana, l’aggiornamento costante dei dati e il controllo e la correzione di eventuali bias.
Alla luce di quanto detto fin qui, possiamo concludere che l’utilizzo dell’AI può portare sicuramente dei benefici significativi nel panorama giuridico, quali: l’efficienza operativa, soprattutto nella ricerca giurisprudenziale all’interno di banche dati, il supporto strategico e predittivo circa le probabilità di successo processuale, la deflazione del contenzioso e l’accesso diffuso alla giustizia. D’altra parte, però, tali strumenti sollevano anche delle criticità in termini di bias nei dati, potenziali discriminazioni, riduzione dell’autonomia del giudice e rischio di standardizzazione delle decisioni, opacità degli algoritmi e impossibilità di spiegare logicamente le previsioni, deumanizzazione del sistema giudiziario.
Dunque, riprendendo quanto messo in evidenza dal report del Senato francese sopra menzionato, l’innovazione tecnologica, la digitalizzazione, l’automazione e l’aggiornamento dei metodi e degli strumenti di lavoro è un processo attuale e travolgente, a cui nemmeno la professione legale può sfuggire. È imprescindibile, però, che l’introduzione di queste enormi novità, senz’altro capaci di integrare il giudizio umano e supportare gli operatori del diritto, avvenga nel rispetto dei principi fondamentali del sistema giuridico, della discrezionalità del magistrato e della parità tra le parti, affinché sia in grado di elevare la qualità del diritto e del servizio pubblico di giustizia, e non rappresenti più una sorta di minaccia per questo settore. Il rapporto termina, per l’appunto, con una lista di 19 principi volti a guidare il progresso e a rafforzare conoscenze, competenze e infrastrutture in tutta l’Unione Europea, in modo tale da promuovere un approccio costruttivo, efficiente, consapevole ed efficace all’innovazione tecnologica in ambito giuridico.