Il campo giuridico dell’AI

Legge più accessibile online
27 novembre 2024
Future Ready Lawyer 2024
28 gennaio 2025
Guarda tutto

Il campo giuridico dell’AI

Come evidenziato dall’ultimo report Future Ready Lawyer 2024 di Wolters Kluwer, il mondo legale
sta attraversando una profonda fase di transizione:  nuove sfide legali, un contesto sociale radicalmente mutato e strumenti digitali innovativi saranno il terreno con cui dovranno confrontarsi i professionisti del futuro.
Perno di questo cambiamento è l’Intelligenza Artificiale. Diminuito gradualmente lo scetticismo nei confronti di questa nuova tecnologia generativa, i legali moderni dimostrano un audace ottimismo sulle potenzialità dell’AI per accelerare e migliorare le prassi operative.

Tuttavia, osservare l’Intelligenza Artificiale come mero strumento operativo in questo campo rappresenta un approccio miope. Infatti, la natura rivoluzionaria dell’AI pervade ogni ambito professionale e ogni settore creando nuove opportunità, doveri professionali e competenze per tutti i professionisti della legge che ambiscono ad offrire assistenza legale. Come riportato in una ricerca di DataForest, nel 2032 il mercato GenAI avrà un volume di circa 118,06 miliardi di dollari. L’espansione di tali tecnologie porta con sé complesse questioni etiche e legali, richiedendo un adeguato quadro normativo che ne regoli l’uso, tuteli la sicurezza e la privacy degli utenti, senza ostacolare il progresso tecnologico e lo sviluppo economico.

Capire come gestire l’ingresso dell’Intelligenza Artificiale nei mercati dal punto di vista giuridico rappresenta senza ombra di dubbio la sfida professionale tanto del presente, quanto del futuro.

Questo articolo apre una finestra giuridica sull’AI, analizzando i principali riferimenti normativi e pareri istituzionali del 2024 per fare maggiore chiarezza su una tematica sempre più dibattuta in campo legale.

DEFINIZIONE: UN PUNTO DI PARTENZA FORMALE

In primis è necessario formalizzare il concetto di AI. La definizione univoca di questa tecnologia delinea il perimetro argomentativo di un fenomeno che per sua natura è in costante evoluzione con potenzialità – conseguenzialmente necessità giuridiche – ancora inespresse.

Tra le varie definizione, quella fornita dall’OCSE appare la più adeguata per autorevolezza della fonte e pertinenza giuridica.

L’OCSE identifica l’Intelligenza come “un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce dagli input ricevuti come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di AI variano nei loro livelli di autonomia e adattabilità dopo l’implementazione”.

OCSE – LINEE GUIDA 

L’OCSE – Organizzazione per la Cooperazione e lo Sviluppo economico – ha recentemente aggiornato la Raccomandazione del Consiglio sull’ Intelligenza Artificiale, redatta nel 2019 e modificata a maggio 2024.
Questo documento, punto di riferimento per le legislazioni nazionali e internazionali, nasce con l’obiettivo di fornire delle linee guida per un uso etico e sicuro dell’Intelligenza Artificiale, attraverso la formulazione di principi e raccomandazioni.

5 Principi:

  • Crescita inclusiva, sviluppo sostenibile e benessere: le istituzioni devono promuovere una gestione responsabile delle Intelligenze Artificiali per supportare le capacità umane e creative in modo inclusivo, riducendo le disuguaglianze e incentivando la crescita economica sostenibile.
  • Rispetto per lo stato di diritto, i diritti umani e i valori democratici: bisognerebbe garantire la tutela dello stato di diritto per tutto il ciclo di vita del sistema di AI, rispettando i valori di uguaglianza, dignità, libertà e autonomia umana.
  • Trasparenza e spiegabilità: gli operatori sono chiamati ad assicurare trasparenza, mediante attività volta a migliorare la comprensione dell’AI e informare le parti interessate.
  • Robustezza, sicurezza e affidabilità: devono essere previsti meccanismi per annullare, intervenire e disattivare i sistemi AI se provocano danni o agiscono in maniera indesiderata.
  • Accountability: ogni operatore dovrebbe essere responsabile effettivo del funzionamento dell’AI.

5 raccomandazioni:

  • Investire nella ricerca e nello sviluppo dell’AI: si incoraggiano aziende private e istituzioni pubbliche a finanziare la ricerca per database open source, valutando le implicazioni sociali, politiche etiche e legali.
  • Promuovere lo sviluppo e l’accesso: l’ecosistema digitale delle AI deve essere inclusivo, dinamico e sostenibile.
  • Creare un contesto di governance in grado di favorire la transizione dell’AI da una fase di sviluppo all’implementazione effettiva entro i quadri normativi, sottoponendo i modelli a rigorosi meccanismi di valutazione.
  • Sviluppare le competenze umane: risulta necessario formare i lavoratori all’implementazione operativa di queste nuove tecnologie per favorire una transizione equa del mercato del lavoro.
  • Collaborare globalmente: progredire verso una AI affidabile è un obiettivo globale a cui tutte le parti interessate devono collaborare, condividendo know-how e sviluppando standard tecnici universali.

AI ACT 

Nel 2024, più precisamente il 12 luglio, con la pubblicazione ufficiale nella GUUE – Gazzetta Ufficiale Unione Europea – si conclude il lungo iter-legislativo, iniziato nel 2021, dell’ormai celebre AI ACT, il primo quadro normativo in materia di Intelligenza Artificiale dell’UE.
Stando all’art.113 l’AI Act si applicherà 24 mesi dalla data della sua entrata in vigore.

L’AI ACT disciplina l’utilizzo e lo sviluppo dell’Intelligenza Artificiale nel rispetto dei diritti fondamentali e dei valori europei. Questo intervento legislativo mira a promuovere l’innovazione, favorire la competitività, offrendo strumenti di tutela per tutti i cittadini. Per creare un ambiente normativo aderente ai principi citati, il regolamento persegue i seguenti obiettivi:

  • Creare un mercato unico per l’AI, per facilitare la circolazione dei sistemi AI conformi agli standard normativi europei.
  • Aumentare la fiducia dell’AI, garantendo sicurezza, affidabilità e trasparenza.
  • Prevenire e mitigare i rischi dell’AI, vietando o limitando l’uso di sistemi che presentano rischi per la sicurezza, la salute e la dignità umana.
  • Sostenere l’innovazione e l’eccellenza nell’AI attraverso incentivi e finanziamenti per lo sviluppo e il dispiegamento di sistemi AI sicuri ed etici.

PRINCIPIO DEL RISCHIO

Il Regolamento AI Act adotta un approccio normativo fondato sul principio del rischio, distinguendo tra applicazioni dell’intelligenza artificiale a basso, medio e alto rischio. Questa classificazione riflette i diversi impatti potenziali di tali tecnologie sulla società, sull’economia e sui diritti fondamentali dei cittadini. In particolare, le applicazioni ad alto rischio, che includono settori sensibili come la sanità, i trasporti e la giustizia, sono soggette a un regime normativo particolarmente rigoroso. Sono invece banditi i sistemi AI finalizzati alla manipolazione cognitivo-comportamentale.

La classificazione dei rischi comporta una diversificazione degli obblighi. Per i sistemi AI ad alto rischio vi sono requisiti più stringenti relativi alla qualità dei dati e sia gli sviluppatori sia gli utilizzatori dovranno condurre una valutazione del rischio e saranno soggetti a obblighi di tracciabilità.
Per quanto concerne i sistemi a rischio limitato, gli operatori interessati saranno tenuti a rispettare i requisiti di trasparenza, comunicando agli utenti informazioni e caratteristiche dell’AI con cui interagiranno.

SOFTWARE LEGAL TECH

Legos rende la digitalizzazione legale più accessibile.

Con l’approvazione dell’AI Act e le linee guida dell’OCSE, la regolamentazione del fenomeno è ormai un aspetto imprescindibile. In questo contesto, i software gestionali per i professionisti della legge rivestono un ruolo cruciale. L’adozione di strumenti avanzati permette di ottimizzare e semplificare i processi operativi quotidiani, ma anche garantire che le attività legali siano eseguite in modo conforme alle normative vigenti.

A livello globale, la Organizzazione per la Cooperazione e lo Sviluppo Economico (OECD) ha pubblicato nel 2019 una serie di linee guida per un uso etico e sicuro dell’AI, mettendo in evidenza principi come la trasparenza, la responsabilità e l’inclusività. Tali linee guida hanno costituito un riferimento importante per le legislazioni nazionali e sovranazionali.

UE: approccio proattivo nella regolamentazione dell’AI, riconoscendo la necessità di creare un ambiente normativo che tuteli i cittadini e favorisca allo stesso tempo l’innovazione tecnologica.

Avviso INNOPROCESS-Interventi di supporto a soluzioni ICT nei processi produttivi delle PMI
POR Puglia FESR-FSE – 2014-2020 – Asse prioritario III – Competitività delle piccole e medie imprese
Azione 3.7 – SUB-Azione 3.7a