Noema, un magazine che promuovere discussioni sul rapporto tecnologia-essere umano, in questo articolo ha riportato la risposta di Stuart Russell, un eminente informatico e direttore del Center for Human-Compatible AI presso UC Berkeley, al saggio di Nathan Gardels intitolato La torre di Babele dell’allineamento dell’IA. In quest’ultimo, l’autore sostiene come, man mano che i modelli di intelligenza artificiale generativa diventano più potenti, sia fondamentale che vengano allineati ai valori umani per servire l’umanità piuttosto che dominarla, ma che non esiste un consenso universale su questo sistema valoriale di riferimento, dato che la natura umana è intrinsecamente diversificata e resistente a una razionalizzazione unica.
Russell, invece, che l’idea di “allineamento” presentata sopra sia troppo semplice: nessuno degli esperti di allineamento dell’IA crede che sia possibile o desiderabile inserire nelle macchine un unico sistema di valori universale; impartire valori ed etica all’IA sarebbe, secondo Russell, una mossa pericolosa. Nel suo libro Human Compatible: Artificial Intelligence and the Problem of Control, spiega che il concetto di “valore” nell’economia e nella ricerca operativa è inteso come sinonimo di utilità, misurabile in termini di desiderabilità di un risultato. Pertanto, in risposta all’idea di Gardels di allineare l’IA a dei “valori universali”, Russell, invece, sostiene la necessità da parte delle macchine di riconoscere la pluralità dei sistemi di credenze, di visioni sul mondo e delle diverse sensibilità culturali, dovrebbero imparare a prevedere le preferenze individuali delle persone, riconoscendone la loro diversità: questo, sostiene il direttore del Center for Human-Compatible AI, può essere fatto da un IA di tipo utilitaristico, che riuscirebbe ad adattare le sue azioni alle preferenze culturali e individuali, soppesando i compromessi quando necessario.
Leggi l’articolo completo The Babelian Tower of AI Alignment su Noema

Foto di Kelly Sikkema su Unsplash

