Dal mito alla fantascienza: il timore delle macchine coscienti
Dalla nascita della letteratura fantascientifica, e ben prima coi suoi precessori mitici quali il Golem e il R.U.R. di Čapek, un topos ricorrente è sempre stato il momento in cui le macchine avrebbero preso coscienza di sé e schiacciato il genere umano.
Questo tema è ora correntemente ripreso non solo da testi narrativi, ma da giornali e riviste scientifiche: esiste la possibilità che le Intelligenze Artificiali contemporanee diventino consapevoli della loro vita e decidano di annientarci? Se Isaac Asimov cercò di esorcizzare questo timore con le Tre Leggi della robotica, l’avvento del Deep Learning, della IoT, della potenza di calcolo e del fatalismo di Bostrom sta creando decisamente qualche paura in più. Sta creando un rischio.
Che cos’è davvero il rischio (e come si racconta)
Posta al confine di diverse discipline, sia quantitative sia qualitative, la teoria del rischio è un campo di studio che si occupa di definire il suo omonimo oggetto. Il rischio descrive un evento potenzialmente pericoloso in quattro dimensioni: (i) l’evento in sé, (ii) la causa, (iii) la probabilità di occorrenza e (iv) l’impatto. Esulando da tale definizione della Stanford Encyclopedia, un altro aspetto fondamentale per comprendere il fenomeno del rischio è la narrazione che lo circonda, ovvero il modo in cui si parla di un rischio.
In termini di rischi IA, il più discusso attualmente tra stampa, riviste e opere divulgative è il rischio esistenziale, ossia la possibile estinzione dell’umanità o un irreversibile collasso sociale.
AGI, coscienza e il dibattito filosofico
Il rischio esistenziale di cui si parla maggiormente riguarda l’AGI, che, nonostante l’acronimo neutro (Artificial General Intelligence), sta a indicare un tipo di intelligenza non umana ma pari o superiore a quest’ultima. La potenzialità di una AGI starebbe nel combinare una potenza di calcolo con prestazioni estremamente più alte di quelle umane con una coscienza emergente, intesa come la facoltà di comprendere e non solo di apprendere i compiti richiesti. Da qui viene proposto ma spesso non problematizzato un passaggio che dalla comprensione porta alla coscienza, dalla coscienza alla volizione, e dalla volizione alla volontà di dominio. Apparentemente lineare, certo, ma sicuramente non esclusivo.

Il pensare che le macchine possano risultare degli esseri pensati non è una novità: non solo la letteratura, come scritto prima, ha già fantasticato su possibili scenari catastrofici di questo calibro, ma in altri si sono interessati alla questione se una macchina possa essere o no considerata cosciente, agentiva, o semplicemente vigile. In particolar modo, la cibernetica e la filosofia. In anni in cui tale dibattito restava speculativo a causa della inferiore potenza di calcolo delle macchine, la questione aveva risvolti esclusivamente teoretici: la comparazione tra umano e artificiale, che si proponeva di superare il meccanicismo classico, aprì a numerose posizioni diverse in merito agli stati mentali, al rapporto tra mente e mondo esterno, e alle varie concezioni spesso più metafisiche che fisiche alla base di tali definizioni.
Abbiamo ereditato nel nostro dibattito questa attitudine, ma contraddistinta non da un reale interesse a questioni di filosofia e teoria della mente, bensì da una versione annacquata di temi epistemici con qualche rimando fantascientifico.
La tendenza emergente dovuta ai radicali cambiamenti che l’IA sta portando nelle nostre vite sta dunque divenendo un tipo di dibattito che afferisce alla natura intrinseca delle IA, della coscienza, del concetto di mente, e di diversi temi di natura teoretica che sono ancora campo di acceso scontro nel mondo della filosofia della mente e delle scienze cognitive. Infatti, il dibattito riguardante se le macchine abbiano una coscienza, se gli algoritmi siano ragionamenti, e se dietro questa somma di componenti possa esserci un’emergente forma di agency, non riguarda solo lo stato stato dell’arte dell’intelligenza artificiale, ma affonda nelle sopracitate scivolose e complesse definizioni che si sono succedute nel corso degli anni. Non solo, ma il supporto delle scienze mediche e neurologiche non aiuta nel dipanarsi all’interno della questione, nonostante si legga spesso la passatista metafora per cui il cervello funziona come una macchina e viceversa, posizione largamente rivista anche dagli stessi filosofi fisicalisti. Questo perché non esiste una definizione univoca, che affondi in una scienza empirica, di alcun termine usato per tracciare i contorni di questo tema. Gli stessi concetti di “mente” e “cervello” vengono cautamente tenuti distinti tanto in medicina quanto in filosofia, trasformando la concezione computazionale del pensiero solo una posizione tra le tante.
Il vero pericolo: non la rivolta, ma l’uso improprio dell’IA
Affrontare il discorso del rischio esistenziale in ambito di cognizione e filosofia è importante a livello teorico e accademico, ma non può e non deve essere superficialmente trasformato nel nocciolo della questione, specialmente in contesti strettamente sociali e normativi.
Lo spazio di tale dibattito non è infatti quello di un pubblico generico e non informato sulla complessa storia di come tutte queste sopracitate discipline si sono intrecciate negli anni, interrogandosi su questioni tutt’ora irrisolte. Non può esserlo perché viene, erroneamente, spacciato per discorso non tecnico quando la discussione sul significato dei termini usati è il cuore del problema. Dare per scontati interi decenni di definizioni di coscienza, azione, agentività, porta a nutrire la falsa credenza che temi di etica e filosofia non siano campi di studio con precisi concetti e vincoli, ma opinioni. La pena non è solo l’impoverimento del dibattito e la mortificazione delle materie umanistiche – filosofia ed etica, ma anche giurisprudenza, sociologia, linguistica e comunicazione -, ma una disattenzione da quello che collettivamente dovrebbe importarci maggiormente in termini di rischio posto dalle IA. A tale proposito, si dovrebbe parlare di rischio esistenziale cumulativo, concetto proposto dalla filosofa Atoosa Kasirzadeh.

Con questa espressione viene infatti posto l’accento non su uno zeitgeist cognitivo delle IA e sull’immediato crollo della civiltà a seguito di questo monadico picco, ma sulla serie di cambiamenti che le intelligenze artificiali stanno portando nella nostra società. Cambiamenti intrecciati con scelte e politiche umane. Ricordiamoci, infatti, che parte della stessa definizione di rischio è ciò che consegue ad un evento o a una serie di eventi, e la sua portata distruttiva.
Zasirzadeh sposta dunque il focus sulle pratiche legate all’uso improprio di IA, quali profilazione e datificazione, sistemi discriminatori, l’uso non regolato in campo bellico, il peso sul riscaldamento globale, e la natura strettamente privata delle maggiori tecnologie IA, che insieme contribuiscono ad un rischio esistenziale. Non si limita dunque a parlare di queste discusse questioni, ma le comprendere nel loro intreccio in un’ottica di effettivo rischio sociale.
Perché serve una regolamentazione collettiva
È dunque necessario discutere di cosa implichi l’agency umana al cospetto di strumenti automatici, laddove la superiorità della loro “intelligenza” non è un dato strettamente rilevante nella creazione di rischi per l’uomo. Per evitare situazioni di forte crisi sociale bisogna discutere, collettivamente, di come non essere esclusivamente elaborati da architetture automatiche ma avere controllo della propria rappresentazione dinnanzi a processi decisionali, evitando di diventare soggetti passivi delle tecnologie. Questo può essere fatto solo esigendo una diversa politica di uso delle IA, spingendo per regolamentare l’uso. Ciò non deve significare solo scrivere leggi, ma esigere uno strumento non orientato dall’alto al basso, dal privato al pubblico, prendendo coscienza che il reale rischio che corriamo non è di essere schiacciati da una indomabile tecnologia, ma di restare solo spettatori di trasformazioni politiche e sociali che riguardano le nostre vite. Iniziare a parlarne è un primo, necessario passo.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

