L’intelligenza artificiale è presente in ogni ambito: dai veicoli autonomi agli assistenti digitali e chatbot; dalle tecnologie di riconoscimento facciale, vocale ed emotivo ai social media; dal settore bancario, sanitario e dell’istruzione ai servizi pubblici. (E, persino nell’amore).
Tuttavia, l’IA non nasce dal nulla. Stiamo vivendo un periodo di policrisi. Nuove guerre, conflitti e colpi di stato militari stanno emergendo in quasi ogni continente del mondo, coinvolgendo un quarto dell’umanità in 55 conflitti globali, come recentemente affermato dal capo delle Nazioni Unite per i diritti umani, Volker Turk. L’escalation e l’aumento dei disastri naturali causati dai cambiamenti climatici hanno reso il 2023 l’anno più caldo mai registrato. La pandemia di Covid-19 ha portato a una grave recessione globale, i cui effetti si fanno ancora sentire oggi, colpendo soprattutto le classi sociali più povere. Infine, stiamo assistendo all’ascesa della politica di estrema destra, che sta progressivamente prendendo il controllo dei governi in Europa e oltre.
La diffusione dell’IA, sia nel discorso pubblico che nell’implementazione pratica, si allinea con la crisi finanziaria globale post-2008 e l’ascesa di un ‘nuovo spirito del capitalismo’ caratterizzato da misure di austerità. L’IA ora incarna un nuovo regime di conoscenza che potenzia gli effetti delle politiche di austerità pur essendo presentata come ‘scienza neutra’. Mentre il settore privato elogia l’IA per l’efficienza, l’oggettività e la riduzione dei pregiudizi, le istituzioni pubbliche, soprattutto le burocrazie, abbracciano sempre più l’IA per l’ottimizzazione, mirando a ottenere di più con meno risorse.
Tuttavia, come vedremo, ciò che l’IA promette è una visione della società eccessivamente semplificata, ridotta a numeri statistici e riconoscimenti di schemi. L’IA è quindi il sintomo finale della ‘Società del Rendimento’.
L’IA come nuovo regime della Società del Rendimento
Nel suo libro ‘The Burnout Society’, il filosofo Byung-Chul Han ha sviluppato il concetto di ‘società del rendimento’. Egli scrive: ‘La società di oggi non è più il mondo disciplinare di ospedali, manicomi, prigioni, caserme e fabbriche descritto da Foucault. È stata da tempo sostituita da un altro regime, ovvero una società di palestre, grattacieli, banche, aeroporti, centri commerciali e laboratori genetici. La società del ventunesimo secolo non è più una società disciplinare, ma piuttosto una società del rendimento’. L’imperativo ideologico, secondo Han, che guida la società del rendimento è la possibilità illimitata.
L’imperativo ideologico della possibilità illimitata si trova al centro del regime dell’IA. In che modo? Innanzitutto, è legato all’insaziabile bisogno di dati dell’IA. Le tecnologie IA richiedono enormi quantità di dati per addestrare i loro modelli. Tuttavia, non tutti i dati sono validi. I dati devono essere raccolti, categorizzati, etichettati, classificati e, in alcuni casi, valutati.
In secondo luogo, il lavoro umano svolge un ruolo significativo nello sviluppo e nell’addestramento delle tecnologie IA. Ad esempio, la creazione di ImageNet, uno dei primi dataset per l’apprendimento profondo, che comprende più di 14 milioni di immagini etichettate, ha richiesto lo sforzo di migliaia di lavoratori anonimi reclutati tramite piattaforme come il Mechanical Turk di Amazon. Questa pratica, nota come ‘crowdwork’, consiste nel dividere i compiti in parti più piccole che vengono completate da persone in tutto il mondo, spesso per una retribuzione minima, come pochi centesimi per compito.
Il nuovo regime dell’IA è il ‘potere intelligente’. Il suo potere si basa su nuove forme di sorveglianza pervasiva, estrazione di dati e lavoro, e neocolonialismo. Come scrive Han: ‘Più grande è il potere, più silenziosamente opera. Accade semplicemente: non ha bisogno di attirare l’attenzione su di sé’. Il ‘potere intelligente’ dell’IA è violento. La sua violenza si basa sul ‘carattere predatorio’ delle tecnologie IA. Sono camuffate con operazioni matematiche, ragionamenti statistici e un’incomprensibilità eccessiva nota come ‘opacità’.

Il concetto di ‘potere intelligente’ di Han mette in luce la natura invisibile ma potenzialmente violenta dell’influenza dell’IA, spesso commercializzata sotto slogan di marketing come ‘città intelligenti’, ‘case intelligenti’ e ‘smartphone’, ‘classi intelligenti’, ecc. Questi termini implicano un aumento della sorveglianza e della raccolta dei dati. Ad esempio, la bambola intelligente di Barbie, introdotta nel 2015, ha portato a uno scandalo sulla privacy dei dati. L’intelligenza (smartness) funziona quindi come un oscuramento per un ulteriore controllo. L’IA, come nuovo regime della società del rendimento, dovrebbe essere accompagnata da un’etichetta di avvertimento: l’IA è l’Altro rispetto all’umano.
L’IA è l’Altro rispetto all’umano
La proposizione ‘l’IA è l’Altro rispetto all’umano’ rappresenta una seria denuncia del nuovo regime dell’IA. La sua intensità è paragonabile all’accusa di fascismo di Mladen Dolar —di cui ho riadattato la proposizione — nel suo saggio ‘Who is the Victim?”‘. Egli scrive, ‘Il fascismo è l’Altro del politico; ancora di più, è l’Altro dell’umano’.
Sotto il fascismo e il nazismo, così come sotto la schiavitù, la lotta per il riconoscimento tra l’Altro e l’Uguale ha creato una dissimmetria che implica la superiorità di uno sull’altro. Questo processo organizzato di alterizzazione, osservabile in vari meccanismi come le politiche guidate dall’eugenetica e le classificazioni tramite distintivi, è culminato in tragedie come l’Olocausto, facilitato da tecnologie come il sistema di schede perforate di IBM fornito dalla sua filiale tedesca.
Tuttavia, esistono intrecci tra l’eugenetica e l’attuale campo dell’IA. Un articolo del 2016 di Xiaolin Wu e Xi Zhang, intitolato ‘Automated Inference on Criminality Using Face Images’, sostiene che le tecniche di apprendimento automatico possono prevedere con una precisione quasi del 90% la probabilità che una persona sia un criminale condannato, utilizzando solo una foto del viso in stile patente di guida. Lo studio suggerisce che certe caratteristiche facciali possono indicare tendenze criminali, suggerendo che l’IA può essere addestrata a distinguere tra i volti di criminali e non criminali. Questo è un esempio di validazione della fisiognomica e dell’eugenetica e del loro intreccio con il campo dell’IA. Tuttavia, lavori di ricerca come questo non esistono nel vuoto. Hanno implicazioni pratiche ed effetti tangibili nella vita delle persone. Nello stesso anno, ProPublica ha pubblicato un’indagine che ha rivelato un pregiudizio algoritmico (machine bias) nel prevedere la probabilità che due imputati (una donna nera e un uomo bianco) commettessero crimini futuri. Ha mostrato punteggi di rischio più elevati per l’imputata nera nonostante avesse meno precedenti penali rispetto all’imputato bianco, che aveva precedentemente scontato cinque anni di prigione.
Asse d’Esclusione
A differenza del fascismo e del nazismo, l’IA oggi non crea dissimmetrie visibili tra l’Uguale e l’Altro. Il ‘potere intelligente’ dell’IA crea nuove (a)simmetrie invisibili — un meccanismo di separazione, segregazione, inferiorità e violenza. Questo meccanismo opera come l’Asse d’Esclusione, creando tre linee (a)simmetriche che approfondiscono le asimmetrie della società, ovvero riproducendo relazioni di dominio, sfruttamento, discriminazione e schiavitù.

In primo luogo, le ottimizzazioni dell’IA, come il ‘backpropagation’ utilizzato nell’addestramento delle reti neurali, possono categorizzare ed etichettare persone o quartieri, ma trascurano le sfumature delle esperienze vissute e delle complesse relazioni sociali. Questo porta a un’essenzializzazione, segregazione e dinamiche di potere di ‘Superiorità’ e ‘Inferiorità’.
Ad esempio, recenti ricerche hanno valutato grandi modelli linguistici come Bard, ChatGPT, Claude e GPT-4, addestrati utilizzando il ‘backpropagation’, trovando incongruenze e la perpetuazione della medicina basata sulla razza attraverso i modelli. GPT-4 ha affermato erroneamente che la funzionalità polmonare delle persone nere è inferiore del 10-15% rispetto a quella delle persone bianche, mostrando i pericoli delle assunzioni mediche basate sulla razza.

La seconda linea di (a)simmetria mira all’intensificazione della relazione tra ‘il Centro’ e ‘la Periferia’. Attingendo all’interpretazione di Badiou della dialettica padrone-schiavo di Hegel, propongo che il Centro si inclini verso il lato del godimento, mentre la Periferia verso il lato del lavoro. L’intensificazione di tali relazioni avviene anche a causa della fragilità intrinseca dei sistemi di IA. Specificamente, quando questi sistemi operano al di fuori degli stretti domini su cui sono stati addestrati, spesso diventano fragili. Questo ha dato origine a una nuova struttura della classe lavoratrice—invisibile—nota come ‘Ghost Workers‘.”
Infine, le capacità rapide di elaborazione dei dati dell’IA consentono l’amplificazione delle asimmetrie sociali a livello globale. Gli algoritmi dei social media possono creare camere di eco che rinforzano narrazioni divisive, esacerbando le dinamiche di ‘Noi’ contro ‘Loro’. Questo ampliamento alimenta una polarizzazione diffusa e può perpetuare narrazioni che giustificano la dominazione e la discriminazione attraverso la disumanizzazione dei gruppi esterni. Ad esempio, nel 2018, HireVue ha affermato che i loro sistemi di colloqui video guidati dall’IA potrebbero selezionare dipendenti di successo basandosi sui movimenti facciali e sulla voce, ma questo discrimina le persone con disabilità che influenzano queste caratteristiche.
Il perpetuarsi dei ‘gruppi interni’ (‘Noi’) come ‘norma’ e dei ‘gruppi esterni’ (‘Loro’) come ‘non norma’ dimostra ancora una volta i danni empirici e le segregazioni su larga scala che le tecnologie IA stanno causando nella società, colpendo principalmente gruppi minoritari quali: persone nere e di colore; persone e comunità povere; donne; LGBTQI+; persone con disabilità; migranti, rifugiati e richiedenti asilo; giovani, adolescenti e bambini; e altri gruppi minoritari.
Se il risultato finale dell’impiego dell’IA nel mondo reale è maggiore ingiustizia, disuguaglianza e marginalizzazione, da un lato, e ‘maggior efficienza con meno risorse’, dall’altro, le differenze tra i due lati — ingiustizia, disuguaglianza, marginalizzazione contro maggior efficienza con meno risorse — dovrebbero essere calcolate come carenze democratiche e di diritti umani, e le persone più vulnerabili pagheranno il prezzo più alto.
Immagine: Foto di Matteo Catanese su Unsplash

