IA generativa e bias di genere. Video intervista con Tiziana Catarci
Le intelligenze artificiali di ultima generazione sono progettate per rispondere a pressoché ogni quesito. Ma restano i pregiudizi di genere.

Le intelligenze artificiali di ultima generazione sono progettate per rispondere a pressoché ogni quesito. Ma restano i pregiudizi di genere.
Le intelligenze artificiali di ultima generazione che interagiscono con noi usando il linguaggio umano – i cosiddetti large language models come ChatGPT – sono progettate per rispondere a pressoché ogni quesito, e a questo scopo vengono addestrate con enormi quantità di testi, incluso molto di ciò che quotidianamente viene immesso nel web.
Possono dare a un interlocutore umano l’impressione di possedere una conoscenza della realtà non solo illimitata, ma anche oggettiva. Ma è un’illusione da cui è bene stare in guardia, spiega la professoressa Tiziana Catarci. La macchina intelligente, infatti, impara dall’analisi statistica dei dati che le vengono forniti; se questi dati rispecchiano schemi mentali, stereotipi culturali o anche pregiudizi di chi li ha prodotti, la macchina li assume come modelli e li ripropone. È quello che si chiama un bias cognitivo.
Succede così che, come ha rilevato l’Unesco da un’accurata ricerca sulle tre IA generative più diffuse, l’associazione donna-cura della casa e uomo-posizione di potere non solo resiste, ma spunta fuori anche in quei contesti in cui la realtà l’ha di fatto superata. Ad esempio, sebbene oggi il 60 per cento delle lauree in medicina sia conseguita da donne, per l’IA il medico continua ad essere maschio. Allo stesso modo resiste la valenza negativa associata a identità di genere e orientamenti sessuali non conformi.
Possiamo rimediare? Anzitutto dobbiamo essere coscienti come singoli, come organizzazioni e come società del fatto che il perdurare dei pregiudizi di genere è un problema ad ogni livello – etico, socioculturale, anche economico – perché solo così ci sarà la volontà di applicare dei correttivi. Ma nessuna soluzione tecnica sarà mai definitiva, ammonisce la professoressa Catarci. Va bene filtrare i dati per evitare di alimentare l’IA con contenuti palesemente non etici, va bene correggere gli algoritmi quando producono discriminazioni evidenti, ma è la nostra capacità critica che va allenata: verso i ragionamenti dell’intelligenza artificiale, e prima ancora verso i nostri stessi schemi di pensiero.
ASCOLTA IL PODCAST