Da quando è stato pubblicato il mio libro di analisi e critica sul lungotermismo, l’inquietante e a tratti assurda filosofia in voga tra i miliardari tech, ci sono stati alcuni sviluppi, a mio avviso, da non sottovalutare. Si potrebbe argomentare, nonché sperare, che ci si stia avviando verso il tramonto di questa filosofia e una fine della sua influenza.
Iniziamo a spiegare brevemente cosa sia il lungotermismo. Si può definire filosofia, ideologia o dottrina politica, ed è nata negli anni Dieci del Ventunesimo secolo nell’ambito del movimento più ampio dell’altruismo efficace. L’idea di base è che il benessere della specie umana nel lunghissimo termine (si parla di migliaia o milioni di anni) sia una priorità morale del nostro tempo. Le azioni di oggi devono essere orientate al bene futuro nel lungo o lunghissimo termine. Da questa premessa nasce un’architettura teorica piuttosto problematica. I lungotermisti considerano una priorità morale garantire la sopravvivenza della specie umana a ogni costo, per questo identificano il numero di esseri umani presenti nell’Universo (il loro punto di vista non si limita al pianeta Terra) come misura della prosperità di una società. Interessante che questa identità, tra crescita della popolazione e benessere, non trovi riscontro nella realtà, dove la crescita demografica unita a una distribuzione diseguale di risorse e potere, non ha portato certo a una ricchezza generalizzata della popolazione terrestre. Il terzo pilastro del pensiero lungotermista afferma che i diritti dell’umanità futura, delle persone in potenza, siano equivalenti a quelli dei viventi nel presente. Si può quindi giustificare qualsiasi nefandezza in nome di una teorica protezione dell’”umanità futura” da quelli che i lungotermisti chiamano “rischi esistenziali”: pericoli radicali per la sopravvivenza dell’umanità.

Non serve specificare che le implicazioni etiche di questa visione siano molto pericolose. Ha scritto Emile Torres, filosofo e critico del lungotermismo: “[I]mmaginate cosa potrebbe essere ‘giustificato’ se il ‘bene superiore’ non è la sicurezza nazionale, ma il potenziale cosmico di vita intelligente originata dalla Terra nei prossimi trilioni di anni? Durante la Seconda guerra mondiale sono morti 40 milioni di civili, ma confrontate questo numero con le 1054 o più persone (secondo le stime di Bostrom[1]) che potrebbero esistere se riuscissimo a evitare una catastrofe esistenziale. Cosa non dovremmo fare per ‘proteggere’ e ‘preservare’ questo potenziale? Assicurare che queste persone non ancora nate arrivino ad esistere? Quali mezzi non possono essere ‘giustificati’ da questo fine morale significativo sul piano cosmico?”.
La domanda che sorge spontanea a chiunque si approcci a questo tema, e che più volte mi è stata posta nel breve tour di presentazioni del mio libro, è: perché dovremmo occuparci del lungotermismo? In fondo è una filosofia elitaria e apparentemente senza alcuna conseguenza sulle politiche che riguardano la maggior parte di noi. A parte la crescente influenza sulla politica economica internazionale, ben documentata da Torres in questo pezzo, cresciuta nel corso degli ultimi tre anni, è importante analizzare il lungotermismo per la sua rappresentazione discorsiva del futuro, in particolare gli aspetti legati alla tecnologia.
Tra i “rischi esistenziali” contro cui l’umanità del futuro deve proteggersi ci sarebbe anche un possibile “risveglio” dell’intelligenza artificiale, che da semplice strumento umano potrebbe diventare senziente, e di conseguenza causare la sottomissione dell’umanità a dei fini malevoli. Questa ossessione per gli effetti a lungo termine è ben evidente nelle scelte di finanziamento dei fondi di stampo lungotermista, che chiaramente mostrano un’inclinazione per i temi di ricerca legati alla “sicurezza” dell’intelligenza artificiale e al suo “allineamento” con i valori umani, come se potesse, in qualche modo, disallinearsi in modo autonomo. Anche guardando gli articoli di giornale usciti negli ultimi due anni, i titoli clickbait abbondano: il catastrofismo sulle possibili conseguenze di una super-intelligenza cosciente è diventato una sorta di sottogenere – tormentone del giornalismo tech. Quello che pare contraddittorio è l’atteggiamento di grandi magnati dell’industria tech, che hanno sposato questa visione catastrofista. Come ha scritto Andrea Daniele Signorelli in un articolo intitolato, molto efficacemente, L’intelligenza artificiale e il marketing della catastrofe: “Interpretati in questa chiave, gli allarmi lanciati da alcuni dei principali protagonisti del settore (…) sembrano avere uno scopo radicalmente diverso: porsi come gli unici con le conoscenze necessarie a sviluppare in sicurezza e tenere sotto controllo queste intelligenze artificiali, gli unici di cui possiamo fidarci, gli unici a cui la classe politica può dare ascolto nel tentativo di capire quali sono i modi migliori per regolamentare questa tecnologia”. L’ansia nei confronti di un presa di coscienza dei robot non l’ha certo inventata il lungotermismo. Ma, anche grazie a generosi fondi, ha contribuito ad alimentarla. Il rischio a lungo termine è davvero quello di una IA cosciente? Al momento, non c’è nessuna certezza su quanto siamo vicini allo sviluppo di una intelligenza artificiale generale, tantomeno di una coscienza artificiale.

Veniamo ora agli sviluppi recenti, che fanno pensare a una sorta di crisi del pensiero lungotermista. Il Future of Humanity Institute, fondato da uno dei pionieri dell’ideologia, Nick Bostrom, nel 2005, ha chiuso i battenti ad aprile del 2024. Bostrom ha citato come cause principali differenze inconciliabili con l’Università di Oxford e un “soffocamento graduale da parte della burocrazia della Facoltà”. Poche settimane dopo, OpenAI ha smantellato il suo team di “super-allineamento”, ovvero quello responsabile di “garantire che l’IA rimanga allineata con gli obiettivi dei suoi creatori, piuttosto che agire in modo imprevedibile e danneggiare l’umanità”. Quest’ultima notizia ha dato adito a non poche dietrologie: Ilya Sutskever, uno dei fondatori della compagnia ha rassegnato le dimissioni nello stesso periodo e vari utenti del web si sono chiesti se abbia visto qualcosa che lo ha sconvolto tanto da abbandonare la compagnia. Probabilmente si tratta invece di un semplice conflitto con l’altro “Big” di OpenAI, Sam Altman, una conseguenza del dramma consumatosi a Novembre del 2023 (quando Altman fu licenziato e riassunto). Insomma, più che con la super-intelligenza delle macchine forse anche qui siamo di fronte a questioni estremamente umane.
È complicato dare una spiegazione ideologica a questi due eventi: le idee lungotermiste potrebbero star perdendo il loro mordente. Sicuramente non si tratterebbe di una notizia negativa, ma non significherebbe automaticamente che ci stiamo invece concentrando sui rischi più concreti dell’impiego dell’intelligenza artificiale: le armi automatiche continuano a essere usate in guerra, le discriminazioni algoritmiche proseguono, le tecnologie continuano a rafforzare politiche razziste ed escludenti. In fondo, il pericolo del lungotermismo sta nei rapporti di potere che soggiacciono a questa ideologia. Che, al momento, sembrano ben stabili. Anzi, in via di rafforzamento.
[1] Si riferisce a Nick Bostrom, filosofo britannico noto per le sue posizioni lungotermiste e per i suoi studi sui cosiddetti “rischi esistenziali”.

