In un’epoca in cui l’Intelligenza Artificiale è rapidamente passata dall’essere una meraviglia da laboratorio a diventare una vera e propria infrastruttura globale – utilizzata quotidianamente da un gran numero di persone – modellando il linguaggio, la conoscenza e le decisioni umane, il The Alan Turing Institute, l’istituto nazionale britannico per la scienza dei dati e l’IA, ha lanciato un monito importante e assai interessante.

Il white paper intitolato «Doing AI Differently: Rethinking the foundations of AI via the humanities» (Fare l’IA in Modo Diverso: Ripensare le fondamenta dell’IA attraverso le discipline umanistiche) non si limita infatti a richiedere un controllo etico ex post sui sistemi di IA, ma propone un’innovazione ben più radicale: una rifondazione epistemologica dell’IA, integrando le metodologie interpretative e qualitative delle discipline umanistiche, artistiche e sociali nel cuore dell’ingegneria algoritmica.

Intelligenza artificiale, la tesi centrale del documento

La tesi centrale del documento è che l’IA attuale è costruita su una base troppo ristretta. I sistemi odierni eccellono nell’efficienza e nella previsione, ma sono plasmati da metriche operative che non riescono a catturare la ricchezza, l’ambiguità e la molteplicità intrinseca dell’esperienza umana. L’IA, infatti, si trova oggi a operare in contesti dove il successo non è misurabile con un semplice controllo numerico, ma richiede ormai un giudizio contestuale e la capacità di interpretare il significato culturale: un compito per cui i computer sono strutturalmente impreparati. Le scienze umane, con la loro secolare esperienza nell’analisi narrativa, nella teoria critica e nella comprensione della sensibilità culturale, offrono invece gli strumenti necessari per questo passaggio verso l’interpretazione.

Il paper, in particolare, identifica tre fenomeni di trasformazione che stanno mettendo in crisi l’attuale modello di sviluppo dell’IA, sottolineandone le limitazioni fondamentali.

La prima è la cosiddetta «svolta qualitativa» (the qualitative turn). Con l’avvento dei Large Language Models e dell’IA generativa, i sistemi non sono più confinati all’analisi di dati strutturati per compiti di previsione. Sono ora attori che generano e si interfacciano con contenuti culturali complessi: linguaggio, arte, narrazioni. Questi domini richiedono una capacità di ragionamento interpretativo e di comprensione delle sfumature che è intrinseca alle discipline umanistiche. Senza un framework integrato per l’interpretazione del contenuto culturale, l’IA rischia di produrre output monolitici, privi di profondità e incapaci di dialogare con la complessità del mondo reale, che è fatto di narrazioni conflittuali e contesti locali.

A ciò si aggiunge il «problema dell’omogeneizzazione» (the homogenisation problem). L’egemonia di poche architetture IA dominanti, in particolare le reti neurali profonde e i modelli di apprendimento per rinforzo, rischia di cristallizzare le debolezze sistemiche in un’infrastruttura globale. Il risultato è un appiattimento della capacità rappresentativa dell’IA, che rafforza le disuguaglianze sociali e porta a una stagnazione prestazionale al di fuori dei benchmark predefiniti.

Infine, il documento affronta la «trasformazione della cognizione umana» (the transformation of human cognition). L’interazione diffusa con l’IA sta ridefinendo il modo in cui pensiamo e lavoriamo. Se l’IA viene progettata unicamente come strumento di efficienza e “assistente” che esegue, esiste il rischio tangibile di diminuire le capacità umane, riducendo la nostra abilità di navigare la complessità e di esercitare un giudizio critico. Il paper solleva la necessità di un’IA che non si limiti a sostituire o accelerare, ma che potenzi la nostra intelligenza collettiva e la nostra capacità di prendere decisioni più sagge.

La risposta a queste crisi è il concetto innovativo di Intelligenza Artificiale Interpretativa. Questo nuovo paradigma tecnico-scientifico propone di superare la storica divisione tra la ricerca ingegneristica e le scienze umane. L’IA Interpretativa non cerca l’unica soluzione “vera” o più probabile, ma è progettata per generare e gestire un insieme di prospettive valide, trattando l’ambiguità e la pluralità come capacità tecniche fondamentali e non come rumore da filtrare.

L’integrazione proposta è profonda: si tratta di utilizzare i metodi di analisi testuale, l’etnografia e la teoria critica per informare direttamente l’addestramento, l’architettura e la valutazione dei sistemi IA. Ad esempio, anziché misurare solo la coerenza sintattica di un modello linguistico, l’IA Interpretativa chiederebbe a quel modello di articolare come diverse scuole di pensiero o contesti culturali interpretano lo stesso dato o evento, rendendo l’interpretazione non un prodotto, ma un processo ingegnerizzato.

Per rendere operativa questa visione, il paper delinea un’ambiziosa agenda di ricerca che si fonda su tre pilastri interconnessi, tutti mirati a espandere le capacità di base dell’IA.

Il primo pilastro è quello delle Tecnologie Interpretative

Si tratta di ingegnerizzare sistemi capaci di rappresentare la molteplicità. Ciò richiede lo sviluppo di nuove strategie di training che espongano l’IA non solo alla quantità di dati, ma alla diversità qualitativa degli schemi interpretativi. Soprattutto, è necessario creare nuovi framework di valutazione che vadano oltre il benchmarking tradizionale. Queste nuove metriche dovrebbero premiare i sistemi per la loro capacità di articolare la sfumatura, di negoziare l’incertezza e di adattarsi a contesti in evoluzione, misurando la loro profondità interpretativa anziché la mera convergenza su una risposta unica.

Il secondo pilastro riguarda le Architetture Alternative per l’IA, Riconoscendo il pericolo dell’omogeneizzazione, il paper incoraggia attivamente il pluralismo metodologico nello sviluppo tecnico. Questo significa finanziare la ricerca su modelli IA che non siano necessariamente reti neurali profonde, ma architetture che siano state progettate ab origine per la sensibilità contestuale e la specificità culturale. Si tratta di incentivare la creazione di modelli “piccoli”, mirati e flessibili, che possano resistere alla logica della centralizzazione e della generalizzazione universale promossa dalle Big Tech, garantendo che le soluzioni IA siano appropriate per i contesti locali e le diverse comunità globali.

Infine, il terzo pilastro si concentra sui Sistemi Ensemble Umano-IA. L’obiettivo non è automatizzare la decisione, ma creare una collaborazione sofisticata che rafforzi l’intelligenza collettiva. L’IA in questo ensemble non è un semplice esecutore, ma un partner critico che fornisce al decisore umano una ricca gamma di interpretazioni qualificate, evidenziando i potenziali bias e le lacune di conoscenza. Questa visione promuove una cultura ibrida in cui le capacità di analisi critica, di giudizio etico e di saggezza dell’uomo vengono amplificate dalla capacità dell’IA di gestire e contestualizzare dati complessi.

«Doing AI Differently» è un manifesto per la saggezza artificiale. Il documento non è un’astratta speculazione filosofica, ma una proposta concreta di ingegneria, evidenziando come l’IA Interpretativa sia imprescindibile per affrontare le problematiche più complesse della nostra epoca, dalla sostenibilità (dove l’azione locale dipende dal contesto culturale) alla sanità (dove la narrazione del paziente non può essere ridotta a parametri numerici). Adottare questa visione significa plasmare un futuro in cui l’Intelligenza Artificiale non sia solo più performante, ma anche più robusta, democratica e, in ultima analisi, più umana.

[In collaborazione con Agnese Macori]

Condividi: