Come evidenziato dall’ultimo report Future Ready Lawyer 2024 di Wolters Kluwer, il mondo legale
sta attraversando una profonda fase di transizione: nuove sfide legali, un contesto sociale radicalmente mutato e strumenti digitali innovativi saranno il terreno con cui dovranno confrontarsi i professionisti del futuro.
Perno di questo cambiamento è l’Intelligenza Artificiale. Diminuito gradualmente lo scetticismo nei confronti di questa nuova tecnologia generativa, i legali moderni dimostrano un audace ottimismo sulle potenzialità dell’AI per accelerare e migliorare le prassi operative.
Tuttavia, osservare l’Intelligenza Artificiale come mero strumento operativo in questo campo rappresenta un approccio miope. Infatti, la natura rivoluzionaria dell’AI pervade ogni ambito professionale e ogni settore creando nuove opportunità, doveri professionali e competenze per tutti i professionisti della legge che ambiscono ad offrire assistenza legale. Come riportato in una ricerca di DataForest, nel 2032 il mercato GenAI avrà un volume di circa 118,06 miliardi di dollari. L’espansione di tali tecnologie porta con sé complesse questioni etiche e legali, richiedendo un adeguato quadro normativo che ne regoli l’uso, tuteli la sicurezza e la privacy degli utenti, senza ostacolare il progresso tecnologico e lo sviluppo economico.
Capire come gestire l’ingresso dell’Intelligenza Artificiale nei mercati dal punto di vista giuridico rappresenta senza ombra di dubbio la sfida professionale tanto del presente, quanto del futuro.
Questo articolo apre una finestra giuridica sull’AI, analizzando i principali riferimenti normativi e pareri istituzionali del 2024 per fare maggiore chiarezza su una tematica sempre più dibattuta in campo legale.
In primis è necessario formalizzare il concetto di AI. La definizione univoca di questa tecnologia delinea il perimetro argomentativo di un fenomeno che per sua natura è in costante evoluzione con potenzialità – conseguenzialmente necessità giuridiche – ancora inespresse.
Tra le varie definizione, quella fornita dall’OCSE appare la più adeguata per autorevolezza della fonte e pertinenza giuridica.
L’OCSE identifica l’Intelligenza come “un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce dagli input ricevuti come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di AI variano nei loro livelli di autonomia e adattabilità dopo l’implementazione”.
L’OCSE – Organizzazione per la Cooperazione e lo Sviluppo economico – ha recentemente aggiornato la Raccomandazione del Consiglio sull’ Intelligenza Artificiale, redatta nel 2019 e modificata a maggio 2024.
Questo documento, punto di riferimento per le legislazioni nazionali e internazionali, nasce con l’obiettivo di fornire delle linee guida per un uso etico e sicuro dell’Intelligenza Artificiale, attraverso la formulazione di principi e raccomandazioni.
5 Principi:
5 raccomandazioni:
Nel 2024, più precisamente il 12 luglio, con la pubblicazione ufficiale nella GUUE – Gazzetta Ufficiale Unione Europea – si conclude il lungo iter-legislativo, iniziato nel 2021, dell’ormai celebre AI ACT, il primo quadro normativo in materia di Intelligenza Artificiale dell’UE.
Stando all’art.113 l’AI Act si applicherà 24 mesi dalla data della sua entrata in vigore.
L’AI ACT disciplina l’utilizzo e lo sviluppo dell’Intelligenza Artificiale nel rispetto dei diritti fondamentali e dei valori europei. Questo intervento legislativo mira a promuovere l’innovazione, favorire la competitività, offrendo strumenti di tutela per tutti i cittadini. Per creare un ambiente normativo aderente ai principi citati, il regolamento persegue i seguenti obiettivi:
Il Regolamento AI Act adotta un approccio normativo fondato sul principio del rischio, distinguendo tra applicazioni dell’intelligenza artificiale a basso, medio e alto rischio. Questa classificazione riflette i diversi impatti potenziali di tali tecnologie sulla società, sull’economia e sui diritti fondamentali dei cittadini. In particolare, le applicazioni ad alto rischio, che includono settori sensibili come la sanità, i trasporti e la giustizia, sono soggette a un regime normativo particolarmente rigoroso. Sono invece banditi i sistemi AI finalizzati alla manipolazione cognitivo-comportamentale.
La classificazione dei rischi comporta una diversificazione degli obblighi. Per i sistemi AI ad alto rischio vi sono requisiti più stringenti relativi alla qualità dei dati e sia gli sviluppatori sia gli utilizzatori dovranno condurre una valutazione del rischio e saranno soggetti a obblighi di tracciabilità.
Per quanto concerne i sistemi a rischio limitato, gli operatori interessati saranno tenuti a rispettare i requisiti di trasparenza, comunicando agli utenti informazioni e caratteristiche dell’AI con cui interagiranno.
Legos rende la digitalizzazione legale più accessibile.
Con l’approvazione dell’AI Act e le linee guida dell’OCSE, la regolamentazione del fenomeno è ormai un aspetto imprescindibile. In questo contesto, i software gestionali per i professionisti della legge rivestono un ruolo cruciale. L’adozione di strumenti avanzati permette di ottimizzare e semplificare i processi operativi quotidiani, ma anche garantire che le attività legali siano eseguite in modo conforme alle normative vigenti.
A livello globale, la Organizzazione per la Cooperazione e lo Sviluppo Economico (OECD) ha pubblicato nel 2019 una serie di linee guida per un uso etico e sicuro dell’AI, mettendo in evidenza principi come la trasparenza, la responsabilità e l’inclusività. Tali linee guida hanno costituito un riferimento importante per le legislazioni nazionali e sovranazionali.
UE: approccio proattivo nella regolamentazione dell’AI, riconoscendo la necessità di creare un ambiente normativo che tuteli i cittadini e favorisca allo stesso tempo l’innovazione tecnologica.