La fantascienza non ha paura dell’IA
Immaginiamo un mondo ipotetico dove lo sviluppo e l’uso dell’intelligenza artificiale siano stati banditi. Quali potrebbero essere le ragioni che hanno portato gli abitanti di quel mondo a introdurre un tale divieto? Potrebbe trattarsi della paura radicata nelle potenziali minacce che l’IA rappresenta per l’esistenza stessa dell’umanità? O possono sussistere altre motivazioni?
La letteratura fantascientifica ha indagato in profondità l’idea di un mondo che ha deciso di fare a meno dell’intelligenza artificiale. Spesso, questi mondi immaginari sono alimentati dalla paura che l’IA possa infliggere danni incommensurabili all’umanità, arrivando a dominare il pianeta, la galassia, o persino a sterminare la specie umana. Numerose narrazioni descrivono ribellioni delle IA, incarnate in robot autonomi e umanoidi, eventi sia avvenuti che solo temuti. Questo immaginario apocalittico è stato amplificato da film iconici come “Terminator”, “Matrix”, e “I, Robot”.
Tuttavia, la paura non è sempre il motore principale dietro l’interdizione delle tecnologie IA nei mondi immaginati dagli scrittori di fantascienza. In tali contesti, la fantascienza diventa un prezioso strumento di esplorazione delle possibili modalità di interazione tra esseri umani e IA e del significato stesso di umanità.

Le ragioni che hanno portato gli abitanti di quei mondi a vietare l’IA possono essere diverse. In “The City and the Stars” dello scienziato e scrittore britannico Arthur C. Clarke (1956) gli abitanti della città di Diaspar vivono in un’utopia statica dal punto di vista tecnologico dove l’innovazione è praticamente inesistente. La mancanza di IA avanzate non deriva dalla paura di una rivolta, ma dal desiderio di mantenere il controllo e la stabilità della società, evitando le incertezze e i cambiamenti che tali tecnologie potrebbero introdurre. Similmente nella serie “Foundation”, del celebre Isaac Asimov (1951-1993) si esplora un futuro in cui l’uso delle IA è regolamentato per mantenere gli equilibri di potere vigenti e per prevenire una possibile instabilità sociale e la perdita di autonomia e identità. In “Do Androids Dream of Electric Sheep?” (1968) dello scrittore americano Philip K. Dick, racconto che ha ispirato il film “Blade Runner” (1982) del regista Ridley Scott, gli androidi (replicanti) sono vietati sulla Terra non tanto per paura di una loro ribellione, ma per questioni etiche e sociali: sono indistinguibili dagli esseri umani se non per la loro mancanza di empatia. L’incapacità dei replicanti di provare vere emozioni e di comprendere appieno le esperienze altrui li rende pericolosi e inaccettabili nella società umana. Questo solleva interrogativi etici sulla loro “legittimità” ad esistere e la loro presenza pone importanti questioni sull’identità, la natura dell’anima e i diritti che dovrebbero essere loro concessi,
Il pianeta Dune

Un altro esempio particolarmente interessante delle motivazioni che possono portare al bando totale delle “macchine pensanti” (lì il termine IA è usato pochissime volte), divieto che esclude anche computer non intelligenti, lo troviamo nel ciclo di sei romanzi centrati sull’immaginario pianeta desertico Dune dello scrittore americano Frank Herbert. Questa saga ha riconquistato popolarità grazie ai recenti adattamenti cinematografici del regista canadese Denis Villeneuve, il quale nei suoi due film ha portato sullo schermo per ora solo il primo volume del ciclo. Anche la versione cinematografica del 1984 diretta da David Lynch non ha approfondito le tematiche relative all’IA nel mondo di Dune.
Il pericolo non è il rischio esistenziale

Il primo romanzo “Dune” (1965) è celebre non solo come capolavoro della fantascienza, ma anche per aver precocemente trattato temi ecologici negli anni ’60: illustra nel dettaglio le sfide di mantenere un equilibrio sostenibile in un ambiente desertico estremo, introducendo un’economia circolare ante litteram del ciclo dell’acqua.
Tuttavia, meno attenzione è stata rivolta finora al messaggio di Frank Herbert sull’intelligenza artificiale, un termine che all’uscita del libro nel 1965 era nato da soli 10 anni. Riletto oggi, il messaggio di Frank Herbert rivela sorprendenti spunti di modernità e affinità con i dibattiti contemporanei.
La messa al bando dell’IA nell’universo di Dune
L’intelligenza artificiale è del tutto assente nel mondo di Dune, e anche per questo motivo quell’universo assume un aspetto arcaico, nonostante esista, invece, la possibilità di compiere viaggi interstellari. L’assenza dell’IA non è un espediente narrativo per giustificare l’arcaicità di quel mondo, né denota un disinteresse dell’autore per il tema, ma paradossalmente è un segno dell’attenzione dell’autore nei confronti del rapporto fra umani e macchine. Infatti, l’esistenza di un divieto esplicito nei confronti dell’IA emerge fin dalle prime pagine del romanzo come qualcosa di profondamente radicato e condiviso nella società immaginata da Frank Herbert.
Dopo il misterioso rituale iniziatico della scatola del dolore somministrato al giovane protagonista del romanzo Paul Atreides dalla reverenda madre Bene Gesserit, Gaius Helen Mohiam, avviene un dialogo che chiarisce lo scopo del test:
“Why do you test for humans?” he asked.
“To set you free.”
“Free?”
“Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.”
“ ‘Thou shalt not make a machine in the likeness of a man’s mind,’ ” Paul quoted.
“Right out of the Butlerian Jihad and the Orange Catholic Bible,” she said. “But what the O.C. Bible should’ve said is: ‘Thou shalt not make a machine to counterfeit a human mind.’”

Perché sottoporre alla prova di essere umani ? – domandò.
– Per renderti libero.
– Libero ?
– Un tempo gli uomini dedicavano il proprio pensiero alle macchine, nella speranza che esse li avrebbero liberati. Ma questo consentì ad altri uomini di servirsi delle macchine per renderli schiavi.
– «Non costruirai una macchina a somiglianza della mente di un uomo» – citò Paul.
– Così dice la Bibbia Cattolica Orangista, e così fu ripetuto dalla Jihad Butleriana – assentì la vecchia. – Ma in realtà la Bibbia C.O. avrebbe dovuto dire: «Non costruirai una macchina per contraffare una mente umana.»
Questo dialogo evidenzia due punti chiave dell’esistenza del divieto. Il primo punto è la frase “[thinking machines] permitted other men with machines to enslave them” (“Ma questo consentì ad altri uomini di servirsi delle macchine per renderli schiavi”): la rivolta contro l’IA non è stata causata da una ribellione delle macchine, ma dalla sopraffazione tecnologica esercitata da un’élite di persone in possesso di tali macchine, che ha reso schiavi gli altri esseri umani. L’autore non ci dice però nulla di più di quell’epoca di oppressione degli uomini da parte di altri uomini.

Per comprendere appieno la visione di Frank Herbert sui rischi della tecnologia, è necessario concentrarsi, però, solo sui sei volumi originali del ciclo di Dune. Non dobbiamo cercare aiuto nei numerosi sequel e prequel scritti dal figlio dell’autore Brian Herbert, insieme a Kevin J. Anderson, che narrano invece della rivolta contro un’onnipresente intelligenza artificiale chiamata Omnius, assistita dall’inquietante robot Erasmus, incaricato di studiare gli umani, e da cymek, robot con cervelli di umani che hanno tradito i loro simili per essere a loro volta sopraffatti da Omnius che ha preso il controllo dell’universo. Questa interpretazione della storia precedente alla messa al bando delle macchine non solo è totalmente assente nei romanzi di Frank Herbert, ma, come abbiamo visto, anche incompatibile con i pochi fatti che vengono evocati nei sei volumi del ciclo di Dune riguardo alla storia del divieto: non convincono le affermazioni del figlio Brian di aver seguito gli appunti lasciati dal padre dopo la sua scomparsa.
La rivolta contro le macchine
Sappiamo però che la rivolta che ha portato alla messa al bando delle macchine pensanti è chiamata “Jihad Butleriana”, si colloca 10.000 anni prima degli eventi narrati nel romanzo ed è durata due generazioni. Nel mondo di Dune si incomincia a perdere memoria di questi eventi, che vengono rievocati solo sporadicamente nel romanzo. Il termine “jihad”, meno conosciuto nel 1965 rispetto ad oggi (a partire dalla guerra in Afghanistan negli anni ‘80 il termine diventerà più usato alla luce dell’interpretazione che ne dà la diffusione del movimento wahhabita) evoca una dimensione religiosa nel rifiuto delle macchine, di cui parleremo più avanti, L’aggettivo “butleriana”, invece, come spiega Paolo Riberi nel suo libro “I segreti di Dune”, è una citazione letteraria del romanziere e critico inglese Samuel Butler.

Samuel Butler è un autore noto principalmente per il suo romanzo satirico “Erewhon” [1] (1872), in cui affronta il tema delle macchine e dell’intelligenza artificiale in un modo che può essere considerato pionieristico per la sua epoca. Butler immagina una società in cui tutte le macchine complesse sono vietate e distrutte per paura delle implicazioni etiche e filosofiche del loro sviluppo continuo. Il divieto non è motivato dalla paura che le macchine si rivoltino contro l’umanità, ma che le macchine possano evolversi (il riferimento alla teoria di Charles Darwin allora appena pubblicata è chiaro) in modo simile agli esseri viventi e se lasciate sviluppare senza controllo, potrebbero raggiungere un punto in cui superano l’intelligenza e le capacità umane, avviando una lenta e insidiosa sostituzione degli esseri umani da parte delle macchine. Inoltre egli teme che l’eccessiva automazione possa portare alla decadenza delle capacità umane e alla perdita dell’ingegno e della creatività. Il timore riflette la visione che le macchine potrebbero ridurre l’umanità a un ruolo passivo, privando gli esseri umani della loro autonomia e della loro capacità di innovare. Infine le macchine sono viste come una fonte di disuguaglianza, in quanto la loro presenza e il loro controllo sono legati ai privilegi di pochi, a scapito della maggioranza.
Rischi esistenziali?
Frank Herbert sembra anticipare il dibattito contemporaneo sui “rischi esistenziali” legati all’IA. Oggi, numerosi imprenditori e studiosi dell’IA avvertono che l’IA potrebbe, in futuro, dominare il mondo e addirittura sterminare la specie umana. Molti hanno richiesto una pausa nello sviluppo di IA generative troppo potenti con la famosa “AI pause letter” di marzo 2023. Tuttavia, l’allarme sui rischi esistenziali è spesso utilizzato retoricamente dalle Big Tech per distogliere l’attenzione pubblica dai rischi concreti e già presenti, come lo sbilanciamento di potere a favore di chi detiene tali tecnologie, una asimmetria di potere nella società simile a quella di cui parla Herbert e che ha portato alla schiavitù l’altra parte dell’umanità. Se di schiavitù oggi non si può più parlare, si parla però ad esempio di una possibile diffusa disoccupazione da compensare con un “universal basic income” (salario universale di base) erogato dalle multinazionali. Il termine è stato recentemente corretto dal proprietario di Tesla, SpaceX e X (cioè l’azienda che si chiamava prima Twitter) Elon Musk in “universal high income” (salario universale alto) per rendere l’idea più attraente, ma senza spiegarne troppo i fondamenti di possibilità a livello economico.
[1] Si noti che il titolo è l’anagramma quasi perfetto di “nowhere”, “da nessuna parte”, un ‘non luogo’ come quello indicato dal termine “utopia”.

