Il libro di Giovanni Sartor sul rapporto tra intelligenza artificiale e diritto
Che relazione c'è tra AI e diritto? Giovanni Sartor snocciola tutte le questioni critiche come diritto d'autore, privacy e trasparenza.
Che relazione c'è tra AI e diritto? Giovanni Sartor snocciola tutte le questioni critiche come diritto d'autore, privacy e trasparenza.
L’intelligenza artificiale (AI) sta diventando sempre più presente nella nostra vita quotidiana – oltre che nella narrazione sul presente e sul futuro – e potrebbe rivoluzionare il modo in cui gestiamo molte attività, grazie alle sue potenzialità nell’analisi di grandi quantità di dati e al suo utilizzo per automatizzare alcuni processi, anche decisionali.
Si tratta di una disciplina che entra spesso in contatto con altre aree del sapere. Tra le varie intersezioni, una delle più interessanti e ricche di spunti di riflessione è senz’altro quella con il diritto. Proprio di questo ci parla Giovanni Sartor, docente di Filosofia del Diritto all’Università di Bologna, nel suo recente volume L’intelligenza artificiale e il diritto, pubblicato dall’editore Giappichelli.
La relazione tra AI e diritto si manifesta a due livelli, che Giovanni Sartor definisce come il diritto dell’AI e l’uso giuridico dell’AI, potremmo anche dire del diritto applicato all’AI e dei sistemi di AI applicati al diritto.
Il primo caso si riferisce al lavoro per una legislazione che tenga conto degli sviluppi dei sistemi di AI e ne regolamenti l’utilizzo. Da questo punto di vista i giuristi e i legislatori hanno il compito di riflettere su questioni come il diritto d’autore – a chi appartengono i prodotti dell’intelligenza artificiale? – la privacy – come garantire un uso corretto e la protezione dei dati personali da parte dei sistemi di intelligenza artificiale? – e la trasparenza – come dimostrare che le decisioni prese dai sistemi di AI siano corrette?
Per quanto riguarda gli usi giuridici dei sistemi di AI, invece, Giovanni Sartor parla delle tecniche di apprendimento automatico applicate al diritto (il database della giurisprudenza non comprende solo le leggi, ma anche i casi giudiziari che le applicano) e della cosiddetta giustizia predittiva, ossia di quei sistemi in grado di predire aspetti rilevanti delle decisioni giuridiche.
La capacità di analizzare grandi quantità di dati aiuta a identificare schemi e tendenze che possono essere utili alla preparazione dei casi. La predizione espande le informazioni disponibili non solo verso il futuro ma anche nel presente e nel passato. I sistemi di AI possono dunque risultare utili per la ricerca documentale, la creazione di sommari o massime di sentenze, l’associazione di descrittori al testo, l’anticipazione di condotte future di imputati, la previsione di quali accordi le parti stipulerebbero, il supporto allo studio del diritto, solo per citare alcune delle possibili applicazioni.
L’utilizzo dell’intelligenza artificiale presenta implicazioni etiche, sfide che Giovanni Sartor prende in considerazione. È importante considerare che i sistemi di AI non sono immuni da errori e distorsioni. Se i dati che alimentano un algoritmo sono incompleti, imprecisi o rappresentativi solo di un gruppo limitato di persone, l’algoritmo può produrre impianti discriminatori e prendere decisioni ingiuste.
Se non correttamente addestrato, un sistema di AI potrebbe perfino produrre scelte che vanno contro le norme giuridiche o che violano i diritti umani fondamentali: questo crea problemi in ogni ambito di utilizzo, ma risulta addirittura paradossale nel caso di sistemi di AI applicati in ambito giudiziario.
Il fatto che l’intelligenza artificiale sia in grado di apprendere e modificare il proprio comportamento solleva anche la questione di come garantire che essa rimanga conforme alle leggi. La legge e la sua applicazione tiene conto di fattori umani che l’AI non sempre riesce a mettere in conto nei suoi processi. Una decisione o una soluzione considerata preferibile da un algoritmo, potrebbe non esserlo nella sua applicazione nel mondo degli esseri umani.
Dall’altra parte, la capacità di analisi dell’AI potrebbe mostrare alcune falle del sistema legislativo e giudiziario sulle quali intervenire. Si pone, inoltre, il problema della responsabilità in caso di errore, che va affrontato sia per quanto riguarda le applicazioni generali che per l’utilizzo in ambito giudiziario.
Le implicazioni etiche e giuridiche riguardano anche la privacy e la protezione dei dati. L’intelligenza artificiale richiede grandi quantità di dati per funzionare correttamente, il che potrebbe comportare la raccolta e la conservazione di informazioni personali sensibili. Ciò solleva la questione di chi possiede questi dati, chi ha il diritto di accedervi e come possono essere utilizzati. La questione, ancora una volta, interessa sia il diritto dell’AI che l’uso giuridico dell’AI.
Per gestire le sfide che si presentano è necessario un quadro giuridico chiaro e coerente per l’utilizzo dei sistemi di intelligenza artificiale nel campo diritto, così come negli altri campi. Ciò potrebbe includere la definizione di standard di sicurezza e privacy per l’utilizzo dell’AI, l’attribuzione di responsabilità in caso di errori e violazioni delle norme etiche, e la creazione di un sistema di regolamentazione per l’utilizzo dell’AI nel sistema giuridico.
La soluzione dell’impasse etico sta – come spesso accade – nella supervisione umana, nel non demandare completamente le decisioni ai sistemi di AI e nel controllo di ciò che essi producono. Più che nelle decisioni finali, l’intelligenza artificiale dovrà dunque essere utile per automatizzare alcuni procedimenti ripetitivi e garantire il veloce reperimento, interoperabilità e analisi dei dati: in questo modo sarà in grado di migliorare l’efficienza del sistema giuridico.