Il fisico Max Tegmark, voce autorevole nella sicurezza dell’IA e cofondatore del Future of Life Institute, esorta le aziende tecnologiche a calcolare rigorosamente i rischi associati all’intelligenza artificiale superintelligente, in modo analogo alle valutazioni condotte prima del primo test nucleare.
Tegmark e tre suoi studenti del Massachusetts Institute of Technology (MIT) hanno proposto l’introduzione della costante di Compton, che misura la probabilità che un’IA superintelligente sfugga al controllo umano ponendo rischi esistenziali. Secondo i suoi calcoli, questa stima raggiungerebbe il 90%. Per Tegmark, il consenso sull’adozione di questa costante da parte di più aziende creerebbe la volontà politica necessaria per concordare regimi globali di sicurezza per l’intelligenza artificiale.
Nel 2023, Tegmark fu anche tra i promotori di una lettera che ha raccolto oltre 33.000 persone, tra cui Elon Musk e Steve Wozniak, chiedendo una pausa nello sviluppo dei modelli e denunciando una corsa fuori controllo. Recentemente, il fisico ha contribuito al rapporto “Singapore Consensus on Global AI Safety Research Priorities”, redatto insieme a Yoshua Bengio e a rappresentanti di aziende come OpenAI e Google DeepMind. Il documento propone tre linee guida per la ricerca sulla sicurezza dell’IA: metodi di misurazione, specificazione dei comportamenti desiderati e meccanismi di controllo. Tegmark ha osservato che la cooperazione e internazionale e il dibattito sulla sicurezza dell’intelligenza artificiale hanno ritrovato slancio rispetto all’atmosfera cupa del Summit di Parigi.
Leggi l’articolo completo: AI firms warned to calculate threat of super intelligence or risk it escaping human control su The Guardian
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

