• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA, conoscenze dominanti e saperi locali: i rischi per la conoscenza

immagine astratta che rappresenta dati e previsioni

I LLM assorbono soprattutto lingue e saperi dominanti, mentre tradizioni orali, pratiche locali e idiomi considerati “low-resource” restano invisibili. Nel saggio pubblicato su Aeon e ripreso anche dal Guardian, il ricercatore Deepak Varuvel Dennison (dottorando presso Cornell University) affronta il denso nodo delle conseguenze di questa logica statistica sulla preservazione, l’accesso e la trasmissione della conoscenza umana.

I dataset e l’asimmetria nell’addestramento

I LLM sono infatti addestrati su enormi dataset testuali che riflettono profonde asimmetrie: l’inglese primeggia con il 44% dei contenuti, mentre lingue parlate da centinaia di milioni di persone come l’hindi rappresentano solo lo 0,2% dei dati. Il tamil, che conta oltre 86 milioni di parlanti, appena lo 0,04%. Circa il 97% delle lingue mondiali è classificato come “low-resource” nel mondo computazionale, nonostante molte vantino tradizioni millenarie e milioni di parlanti. I modelli, nota il ricercatore, hanno in realtà accesso a una fetta estremamente ridotta della conoscenza umana.

Le implicazioni del funzionamento statistico e la mode amplification: il rischio del collasso della conoscenza

In virtù del loro design e funzionamento, i LLM tendono a riprodurre e amplificare i pattern statisticamente prevalenti nei dati di addestramento attraverso un fenomeno chiamato mode amplification, rendendoli ancora più dominanti rispetto alla loro effettiva presenza nei dati di origine. Ciò crea un circolo vizioso in cui i contenuti generati dall’IA saturano il web e diventano a loro volta materiale di addestramento per modelli futuri, marginalizzando progressivamente le prospettive meno rappresentate. Il ricercatore Andrew Peterson parla in questo senso di collasso della conoscenza, un restringimento graduale delle informazioni accessibili accompagnato da una perdita di consapevolezza di punti di vista e prospettive alternativi.

L’erosione dei saperi locali, ma l’IA accelera un processo storico

Come mostra l’esempio dei Neeruganti in India, custodi di antiche conoscenze sui sistemi idrici, la marginalizzazione di questi saperi non è solo una perdita culturale ma una minaccia alla capacità collettiva di affrontare crisi ambientali e considerare prospettive e soluzioni alternative. Varuvel Dennison fa quindi riferimento ad Antonio Gramsci e alla sua teoria dell’egemonia culturale, per cui il potere si mantiene anche plasmando norme e credenze quotidiane, non solo con la forza. “La storia globale di imperialismo e colonialismo continua a plasmare il modo in cui la conoscenza viene prodotta e valorizzata”, nota il ricercatore. L’IA generativa non è dunque la causa originaria di questa erosione, ma ne accelera drammaticamente gli effetti attraverso l’azione delle gerarchie epistemologiche che incorpora.

Leggi l’articolo completo:

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (13/05/2025).

Esplora altri articoli su questi temi