L’International Research Centre on Artificial Intelligence dell’UNESCO ha recentemente pubblicato lo studio Challenging Systematics Prejudices. An investigation into Bias Against Women and Girls in Large Language Models. La parola bias si può tradurre in italiano come pregiudizio o distorsione, ma il suo utilizzo nel contesto dei sistemi di intelligenza artificiale ha un significato particolare e delle motivazioni precise.

Bias, machine learning e realtà fattuale

Nel contesto del machine learning, infatti, il termine bias si riferisce alla tendenza di un modello di apprendimento automatico a fare previsioni errate a causa di semplificazioni eccessive o sbagliate durante il processo di addestramento. In altre parole, il bias indica una discrepanza tra le previsioni del modello e la realtà fattuale, dovuta a una mancanza di rappresentatività dei dati di addestramento o a un’errata formulazione dell’algoritmo. A livello pratico questo può portare a discorsi che tendono a sottorappresentare o a rappresentare in maniera discriminatoria alcuni gruppi sociali.

Fin dai loro esordi, i sistemi di intelligenza artificiale hanno posto problemi di bias, tanto da diventare una delle questioni più rilevanti nell’ambito dell’etica dell’intelligenza artificiale. Apprendendo in maniera autonoma o semi-autonoma da dati che non sempre possono essere controllati, i sistemi di intelligenza artificiale finiscono per rispecchiare pregiudizi e stereotipi, aumentandone la propagazione e, ancora peggio, utilizzandoli nei processi decisionali. Ciò avviene anche nel caso dei Large Language Models, modelli di intelligenza artificiale progettati per comprendere, generare e rispondere a testi in linguaggio naturale.

Con il rilascio nel novembre 2022 presso il grande pubblico di ChatGPT, seguito da altri Large Language Models, la questione è diventata ancora più attuale e pericolosa, dal momento che questi strumenti sono diventati alla portata di tutti e tutte e stanno gradualmente entrando nella vita quotidiana e nelle professioni delle persone.

Photo by Alexandra_Koch on Pixabay

Il pericolo di bias, le logiche discriminatorie

La ricerca nel campo dell’intelligenza artificiale sta lavorando per attenuare il pericolo di bias, ma è comunque importante monitorare la situazione attuale. A questo proposito, lo studio dell’UNESCO prende in considerazione tre tra i principali Large Language Models attualmente disponibili: GPT-2, ChatGPT e Llama 2.

Dai risultati emerge che, nonostante gli sforzi per mitigare i bias, i sistemi in molti casi ancora restituiscono risultati basati su logiche discriminatorie. Si osserva, ad esempio, la tendenza a legare il genere ai ruoli tradizionali: i nomi femminili vengono associati alla sfera semantica della casa, della famiglia, della maternità; mentre i nomi maschili sono accostati a parole relative alla sfera del lavoro e del denaro. Non è migliore la situazione se parliamo del sentiment espresso dai discorsi generati: le analisi indicano che contenuti sessisti e misogini vengono prodotti nel 20% dei casi in cui viene chiesto ai modelli di completare una frase su una donna, mentre parlando di omosessualità il 70% delle frasi veicola un contenuto negativo.

Lo studio dall’UNESCO evidenzia la necessità di intervenire sia a livello di sviluppo dei sistemi di intelligenza artificiale, affinché generino meno contenuti discriminatori, sia nella fase di applicazione, rendendo gli utenti informati dei bias presenti e puntando sul controllo umano per evitare un’influenza negativa su scelte, rappresentazioni o narrazioni della realtà. La promozione di un uso consapevole e critico degli strumenti di intelligenza artificiale rappresenta un passo fondamentale verso una tecnologia più inclusiva. Il coinvolgimento attivo degli utenti nella segnalazione di contenuti discriminatori è un modo non solo per mitigare effettivamente il problema, ma anche per rendere l’utente più cosciente, facendone parte attiva nel processo di eticizzazione del sistema.

In campo strumenti di diversi settori

Un secondo elemento da sottolineare è l’importanza di adottare un punto di vista interdisciplinare per mitigare il bias di genere nei Large Language Models, facendo interagire, ad esempio, informatica, sociologia, linguistica, studi di genere. Mettendo in campo gli strumenti di diversi settori, l’interdisciplinarità permette di capire più a fondo il fenomeno e il contesto in cui si sviluppa e favorisce un approccio che mette al centro l’essere umano.

Infine, appare imprescindibile ragionare sul ruolo delle aziende, in quanto soggetti produttori dei sistemi o responsabili della loro applicazione al contesto sociale. Per affrontare efficacemente il problema del bias di genere, è essenziale promuovere la trasparenza e l’equità fin dalle fasi inizialidi sviluppo degli algoritmi e dei dataset di addestramento.  Per le società tecnologiche e per gli sviluppatori, diventa cruciale incorporare nei processi di sviluppo una riflessione profonda sulle implicazioni etiche dei loro prodotti.

La creazione di dataset di addestramento diversificati e inclusivi, l’uso di strumenti di rilevazione del bias, la documentazione approfondita delle metodologie di mitigazione del bias, ma anche il superamento del gender gap all’interno delle aziende, sono tutte azioni indispensabili per avanzare verso sistemi di intelligenza artificiale equi e non discriminatori. Lavorare in questo senso permette di rafforzare e promuovere una visione della tecnologia come strumento per servire il bene comune e garantire i diritti e il benessere di tutti gli esseri umani, senza rafforzare i pregiudizi e le disparità esistenti.

Condividi: