• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

X-threat: il rischio esistenziale – L’alfabeto della retorica dell’IA: parte 2

Il «rischio esistenziale» portato dall’Intelligenza artificiale si riferisce alla possibilità che lo sviluppo e l’uso dell’IA possano condurre intenzionalmente o non intenzionalmente a conseguenze catastrofiche per l’umanità, fino a causare il collasso irreversibile della civiltà umana o perfino l’estinzione della specie umana.

I principali scenari ipotizzati includono una superintelligenza ostile che potrebbe agire in modi incompatibili con la sopravvivenza umana; l’uso militare dell’IA nelle armi autonome, che potrebbe portare a conflitti incontrollabili o a incidenti catastrofici; o l’amplificazione delle disuguaglianze esistenti, che potrebbe causare tensioni sociali e politiche che porterebbero a conflitti su larga scala.

Fra i sostenitori di questa visione troviamo filosofi, imprenditori e scienziati.

Il filosofo svedese Nick Bostrom, influente nei circoli dei tecnomiliardari della Silicon Valley ma controverso, già direttore del Future of Humanity Institute (FHI) presso l’Università di Oxford (fondato nel 2005, l’istituto è stato chiuso dall’ateneo britannico lo scorso 26 aprile, e per questo motivo Bostrom ha lasciato Oxford), membro del think tank Future of Life Institute[1], autore del libro «Superintelligence: Paths, Dangers, Strategies» (2014), in cui esplora i potenziali rischi della superintelligenza. Tecnofilo e transumanista, Bostrom ha studiato il «rischio esistenziale», ossia le modalità con cui l’umanità può fallire ed estinguersi.

Elon Musk, CEO di Tesla, SpaceX e xAI, considera l’Artificial General Intelligence (AGI) come il più grande «rischio esistenziale» per l’umanità, e anche Sam Altman, CEO di OpenAI, ha espresso le sue preoccupazioni al riguardo.

Hanno visto lo stesso rischio rinomati scienziati come Stephen Hawking, e padri (Stuart Russell) e padrini dell’AI (Geoffrey Hinton e Yoshua Bengio). Più ottimista il terzo padrino Yann LeCun, Chief AI Scientist presso Meta. 

Lo scrittore e scienziato Eliezer Yudkowsky ha suggerito che se una superintelligenza fuori controllo fosse sul punto di essere attivata, si potrebbe considerare un’azione estremamente drastica per impedirlo, come distruggere il data center di un altro Paese dove risiede l’AI, anche a rischio di una escalation nucleare.

La «AI Pause Letter» è una lettera aperta pubblicata nel marzo 2023 dal Future of Life Institute, firmata da oltre 2.000 tra esperti, imprenditori e ricercatori nel campo dell’intelligenza artificiale, tra cui i nomi citati sopra. La lettera chiedeva una pausa di sei mesi nello sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4, con l’obiettivo di consentire una valutazione più approfondita dei potenziali rischi e delle misure di sicurezza necessarie, prefigurando rischi esistenziali: «Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?» («Dovremmo sviluppare menti non umane che potrebbero alla fine superarci in numero, intelligenza, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?»).

Chi pone l’attenzione sui rischi esistenziali sostiene di farlo per una serie di motivi: vuole aumentare la consapevolezza dei cittadini e incentivare il dibattito pubblico e l’educazione, aiutando le persone a comprendere meglio le implicazioni dell’IA nella loro vita quotidiana; vuole dare impulso al legislatore per mettere in atto una regolamentazione dell’IA e incentivare la creazione di istituzioni internazionali che sorveglino i rischi dell’IA; vuole evidenziare la necessità di creare un’intelligenza artificiale che rispetti i vincoli etici.

Ma l’argomento dei rischi esistenziali può essere allo stesso tempo usato come strumento retorico per focalizzare l’attenzione su un rischio lontano e molto ipotetico e allontanare il discorso pubblico da conseguenze dell’IA già in atto.

L’uso strumentale dei rischi esistenziali è stato evidenziato, ad esempio, dalle autrici del famoso articolo Stochastic Parrots nella loro replica alla lettera sull’«AI Pause». Esse fanno anche notare l’appartenenza del Future of Life Institute alla filosofia Lungotermista. Per loro è davvero il momento di agire senza focalizzarsi su immaginarie «potenti menti digitali», ma concentrandoci sulle pratiche di sfruttamento da parte delle aziende che affermano di costruire l’IA: stanno rapidamente concentrando il potere nelle mani di poche persone, esasperando le disuguaglianze sociali; sfruttano i lavoratori che etichettano i training set; mettono le mani sui dati per creare prodotti che generano profitti per una manciata di entità; stanno portando all’esplosione dei media sintetici nel mondo, che riproducono sistemi di oppressione e mettono in pericolo il nostro ecosistema informativo.

Le Big Tech potrebbero utilizzare la retorica dei rischi esistenziali per influenzare il processo di regolamentazione in modo a loro favorevole. Presentando l’IA come una tecnologia che presenta rischi estremi, queste aziende possono cercare di proporre regolamentazioni specifiche che hanno più probabilità di essere accettate se percepite come risposte a minacce esistenziali. Queste regolamentazioni potrebbero essere modellate in modo da favorire le grandi aziende, che hanno le risorse per conformarsi, rispetto ai concorrenti più piccoli. Inoltre, la futura regolamentazione potrebbe essere utile per rallentare la concorrenza: le normative complesse e onerose in risposta a rischi gravi come quelli esistenziali possono essere più facilmente gestite da grandi aziende con risorse significative, mentre possono rappresentare un ostacolo insormontabile per start-up e concorrenti più piccoli. Il senso di urgenza porterebbe l’opinione pubblica ad accettare queste regolamentazioni sbilanciate a favore della parte industriale. Infine, sostenere che solo aziende grandi e potenti hanno le capacità per sviluppare e controllare in modo sicuro l’IA può essere un modo per giustificare il loro dominio nel settore e accreditarsi allo stesso tempo come leader responsabili e guardiani della sicurezza globale.

In conclusione, per Big Tech è importante poter controllare la narrazione, anche a costo di apparire incoerenti nello sviluppare a ritmo accelerato tecnologie considerate dalle stesse Big Tech – e presentate al pubblico – come esizialmente pericolose.


[1] La missione dell’istituto è “Orientare la tecnologia trasformativa verso il beneficio della vita e lontano dai rischi estremi a larga scala”.

Articolo precedente

Articolo successivo

Esplora altri articoli su questi temi