Il rapporto tra la morale, o l’etica, e la legge ha affascinato da sempre giuristi, scrittori, filosofi e scienziati. Il nodo in effetti non è semplice da sciogliere, dal momento che a un’analisi non attenta si potrebbe giungere a sovrapporre le due sfere e dichiarare, in sostanza, che tutto ciò che è nella legge è eticamente corretto e dunque che se un’azione può essere iscritta nel dominio della legalità è giusta. Ma è davvero così? Davvero la legge riesce sempre a contemplare e regolamentare ogni caso di dubbio tra bene e male?

La questione principale, che ci aiuta a capire la necessità dell’utilizzo dell’etica personale e collettiva accanto alla legge, è che i concetti di bene e male possono cambiare nel corso tempo e nelle diverse culture. Per questo motivo, la morale deve convivere accanto alle leggi, integrarle laddove esse non arrivino a stabilire con esattezza la correttezza delle azioni, mantenendosi in continua evoluzione e lasciando aperta la porta al dibattito e alla compresenza, laddove possibile, di posizioni diverse. Gli stessi giuristi sono consapevoli dell’importanza di questa cooperazione, se pensiamo che nel 1963 Earl Warren, in quel momento presidente della Corte Suprema statunitense, disse: «In civilized life, the law floats in a sea of ethics» (nella vita civile, la legge galleggia in un mare di etica).

Se il diritto fa le leggi, che tutte le persone devono rispettare per restare all’interno di quello che Jean-Jacques Rousseau definiva il contratto sociale, dall’altra parte c’è la morale, che mira allo stesso tempo ad essere individuale, condivisa e autoregolamentata: ogni essere umano deve seguire la propria legge morale per agire nel mondo, anche laddove il bene o il male non siano definiti nettamente dalle leggi.

Viene in mente a questo proposito quanto scrisse il filosofo Immanuel Kant, che nella parte finale della sua Critica della ragion pratica dichiara il suo stupore di fronte a due elementi: «il cielo stellato sopra di me, e la legge morale in me». Le due cose sembrano sconnesse, ma non lo sono, giacché la legge morale – che l’essere umano eredita (o dovrebbe ereditare) culturalmente e arricchisce attraverso la propria esperienza esistenziale – riguarda anche il posizionamento della persona nel mondo, sia nei confronti degli altri esseri umani che della natura. E basti a conferma di questo pensare che le questioni etiche più attuali riguardano proprio gli effetti delle azioni dell’essere umano sulle persone (bullismo, cyberbullismo, equità sociale ed economica, impatto delle nuove tecnologie) e sulla natura (riscaldamento globale, inquinamento, animalismo).

Intelligenza artificiale ed etica

Tra le questioni più recenti, c’è quella delle implicazioni etiche delle tecnologie digitali, in particolare nel campo dell’intelligenza artificiale, per la quale si sta lavorando alla ricerca di un’etica condivisa, da riversare all’interno di leggi che ne garantiscano una corretta applicazione. Essendo – come si è accennato – le questioni morali sempre fonti di dibattiti accesi, anche in questo caso non mancano gli scontri.

Ma andiamo con ordine: nell’aprile del 2021 il Parlamento Europeo e il Consiglio dell’Unione Europea hanno presentato una proposta per la realizzazione di regole armonizzate sull’intelligenza artificiale (la ricerca di un’armonia ci fa presagire l’assenza della stessa allo stato attuale). Per chi abbia la pazienza e la voglia di documentarsi sulle fonti primarie, il testo completo della proposta ne espone gli obiettivi, la base giuridica, l’efficienza normativa e le singole disposizioni della proposta.

La regolamentazione presentata avrebbe lo scopo primario di contenere i rischi che le nuove tecnologie legate all’intelligenza artificiale (AI) potrebbero causare alla società, in particolar modo per quanto riguarda la tutela dei diritti, ed evitare dunque che lo sviluppo dell’AI contribuisca ad aumentare discriminazioni di genere, razziali o economiche.

Questo sembra senz’altro un argomento di fondamentale importanza, su cui ci si deve interrogare a più livelli: dai governi, chiamati a regolamentare, agli scienziati, che devono creare materialmente prodotti eticamente sostenibili, fino ai fruitori, che andrebbero responsabilizzati su un uso corretto di queste nuove tecnologie.

La proposta di regolamentazione presentata dall’Unione Europea ha però sollevato le polemiche degli altri due grandi contendenti dell’agone geopolitico contemporaneo: Stati Uniti e Cina. Quello che si contesta al regolamento proposto dall’Ue è in particolare la definizione delle fasce di rischio (minimo, limitato, alto e inaccettabile), che stabiliscono in maniera molto netta le soglie che non potranno essere superate. Gli Stati Uniti sarebbero per una regolamentazione più morbida, che tenga conto del fatto che l’AI è un campo ancora in via di definizione e una legislazione troppo dura potrebbe bloccarne lo sviluppo. Dall’altro lato del globo, la Cina lavora a una propria regolamentazione standard, che escluderebbe dalla partita USA e UE.

Senz’altro l’introduzione di una regolamentazione è un passo necessario. Se abbiamo detto in apertura che l’etica è in grado di decidere sul bene e sul male anche in assenza di leggi, tuttavia l’etica in alcuni casi non basta, soprattutto nei casi in cui le questioni non riguardino più solo la responsabilità individuale ma diventino attori primari all’interno della società.

Restano alcuni punti deboli nella regolamentazione proposta dall’UE. Primo tra tutti è l’assenza di un quadro normativo generale per la tecnologia digitale, che aiuti a dirimere le questioni etiche non solo per l’AI e non solo per i sistemi di AI ad alto rischio. I rischi di un uso scorretto e potenzialmente pericoloso delle tecnologie vanno infatti oltre il campo dell’AI.

Tanto per fare un esempio, si può pensare alle pubblicità di micro-target, che implicano la profilazione degli utenti e il salvataggio di una gran quantità di dati personali. Un fenomeno che, è bene ricordarlo, ha contribuito a far aumentare le entrate di Google dalle pubblicità da 0,07 miliardi di dollari nel 2001 a 134,81 nel 2019.

Un altro punto critico – sollevato anche dagli Stati Uniti – è quello dell’eccessiva specificità della regolamentazione. Il quadro normativo, pur cercando di essere generale, nella pratica cita poi questioni tecniche specifiche, mentre dovrebbe essere più generale e aperto a coprire l’innovazione futura. La regolamentazione dovrebbe concentrarsi meglio sui principi piuttosto che sulle tecniche, proprio in vista del raggiungimento del fine etico condiviso.

Alcuni sistemi si basano su approcci ancora quasi impossibili da verificare. Ad esempio, l’Explainable AI è un’area di ricerca, non una realtà commerciale. Similmente, l’opacità, la complessità e la parzialità dei sistemi di intelligenza artificiale non sono ancora problemi risolti (o completamente definiti).

Infine, non è ben chiaro chi controllerà la conformità al regolamento, data anche la difficoltà intrinseca di questo controllo. Pare insomma che il cammino verso una regolamentazione etica dell’intelligenza artificiale sia ancora da definire a vari livelli.

Recente è la notizia che l’accordo tra i paesi UE sarebbe in dirittura d’arrivo entro aprile 2022, seppur – come si è visto – molti dubbi rimangono da sciogliere e manca ancora un dialogo tra l’UE e gli altri stati interessati. C’è solo da sperare che – come spesso accade – le ragioni dell’etica non siano sacrificate a quelle del denaro.

[Ha collaborato Daniel Raffini]

Condividi: