“Preoccuparsi della superintelligenza artificiale è come temere il sovrappopolamento di Marte prima ancora di averci messo piede“, spiegava nel 2015 Andrew Ng, pioniere del deep learning. A distanza di anni, queste parole descrivono perfettamente il problema dell’intelligenza artificiale generale: una tecnologia che non solo non esiste, ma di cui nessuno sa se sarà mai raggiunta. Peggio ancora, nessuno ha idea di come costruirla, soprattutto ora che la legge di scala teorizzata da Dario Amodei sta mostrando i suoi limiti, con modelli recenti che mostrano progressi marginali a fronte di costi esponenziali.
È questo che rende problematiche le lettere aperte contro la superintelligenza: partono dalla premessa sbagliata che l’AGI sia imminente, concentrandosi su un problema inesistente e distraendo dai rischi concreti dell’intelligenza artificiale come l’impatto sul lavoro, i costi ambientali e la sorveglianza. Ma perché ChatGPT e gli altri strumenti statistici, la cui unica abilità è prevedere quale parola segua la precedente, dovrebbero prendere coscienza e ribellarsi? Come mai si ridicolizzano le persone con ecoansia mentre si prendono sul serio scenari da Terminator? Un recente sondaggio su 475 ricercatori conferma lo scetticismo: il 76% ritiene improbabile raggiungere l’AGI seguendo gli attuali paradigmi del deep learning.
Dunque, servirebbe un nuovo breakthrough tecnologico di cui non si vede traccia, eppure questa narrazione continua a prosperare, utile ai colossi tech per giustificare investimenti miliardari promettendo un “dio digitale” sempre futuro e sempre più in là nel tempo, diventando una fede per l’epoca tecnologica.
Leggi l’articolo completo E se la superintelligenza artificiale fosse solo una teoria del complotto e una forma di distrazione di massa? su Wired.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (17/09/2025).

