Libero arbitrio. Cosa vuol dire? Gli esseri umani fanno scelte libere o del tutto predeterminate dall’effetto congiunto della propria educazione e della propria genetica? Il tema è al centro non solo delle ricerche dei filosofi, ma anche di chi si occupa di intelligenza artificiale.
Non a caso, al 25esimo congresso mondiale della filosofia, che si è svolto la settimana scorsa a Roma, tra i nomi di maggior spicco figuravano Ye Zeng, esperto di etica dell’intelligenza artificiale, e David Chalmers, filosofo della mente che propone una concezione dualistica ma non cartesiana della coscienza.
Quella del libero arbitrio non è solo una delle domande che si incontrano nell’IA. È proprio LA domanda al centro della titanica sfida di realizzare oggetti intelligenti. Nello sforzo di creare “macchine autonome”, i ricercatori sono costretti a chiedersi: “Autonome da cosa?”. E allora, in un gioco costante di sottrazione, si cerca di scartare uno dopo l’altro gli strati della cipolla: il programmatore deve sparire il più possibile. La macchina deve imparare da esempi. Ma la configurazione, l’architettura, la dimensione della rete neurale capace di imparare chi le deve stabilire? Un progettista? Certo che no! E allora si va in cerca di un meccanismo evolutivo selettivo, che faccia convergere il sistema verso la soluzione più efficace. Ma questo meccanismo selettivo, costruito con reti genetiche, quanto assomiglia all’evoluzione di Darwin? Troppo poco! E allora gli interrogativi sulla definizione di una funzione che presidi la selezione senza la mano di un progettista. Ma allora vogliamo provare a far progettare il sistema da un modello generativo? E quanto è autonomo un modello generativo? Troppo poco! Perché riproduce i testi su cui è stato allenato. Non inventa niente!
A ogni passaggio, la domanda è sempre la stessa: come ricostruire il pensiero con le macchine? Un pensiero vero, non progettato dall’esterno. E questo ci costringe a chiederci: cosa contraddistingue il nostro pensiero? Dov’è che risiede la nostra mente? La coscienza è una “caratteristica emergente” di un sistema neurale complesso, come immaginano gran parte dei ricercatori dell’IA, oppure è un fenomeno separato dalla materialità diretta del nostro cervello, come diceva Cartesio (e ripropone ora Chalmers con qualche revisione)? Perché nel primo caso non possiamo che essere determinati nelle nostre azioni dalla nostra natura fisica, nel secondo invece pieghiamo la materia alla nostra volontà. Al nostro libero arbitrio, appunto. Ma c’è anche la terza via, quella che suggerisce per esempio il fisico Roger Penrose, secondo il quale la mente è qualcosa di materiale, sì, ma legata a fenomeni come la fisica quantistica che, implicando l’indeterminazione, lasciano abbastanza spazio per permettere la libertà. Ai fisici in generale sembra piacere questa idea, che mette insieme capra e cavoli. Ipotesi certamente affascinante.

Ma insomma dove ha inizio l’intelligenza? Con la vita? E quando inizia la vita? A oggi, una definizione universalmente accettata di vita ancora non c’è. È con la vita che si accende la prima scintilla di volontà autonoma? Ed è questa la domanda sottostante della conferenza annuale della società della Artificial Life. Ho avuto il privilegio di partecipare all’edizione di quest’anno, che si è svolta dal 22 al 26 luglio a Copenhagen. Un evento strepitoso.
Impossibile citare tutte le cose interessanti, in ordine sparso e assolutamente parziale: il lavoro del gruppo di Takahide Yoshida, che ha integrato un robot umanoide con GPT-4; lo sciame di robot coristi delle Università di Namur e Bruxelles, le ricerca di Bert Chan di Google Deepmind e di Martin Biehl di Cross Compass sull’origine della volontà (Google Research e Springer), il Simsulator di Michael Finn dell’University of Western Australia (MIT), software che consente di simulare l’evoluzione di creature virtuali.
E ancora, l’affascinante lavoro di Seth Bullock sul rapporto tra intelligenza individuale e collettiva e la sua ricerca con Conor Houghton sull’origine del linguaggio, i modelli neuroevolutivi di Sebastian Risi e la sua squadra, il tuffo nella storia dell’idea delle macchine autonome di Tim Taylor, lo studio di Dylan Cope sul mimetismo come possibile scintilla comportamentale del linguaggio.
Viviamo in un tempo bellissimo, nel quale filosofia e scienze stanno ritrovando una composizione. Siamo distratti da tanti conflitti a ogni livello. Ma non abbiamo mai avuto tanti strumenti per capire qualcosa della natura umana come adesso. Speriamo che tra tanti conflitti, guerre identitarie e distopie imminenti ancora queste risposte ci interessino.

