L’intelligenza artificiale (IA) sta cambiando direzione. Un tempo Google e OpenAI promettevano etica e trasparenza. Oggi rincorrono il profitto, collaborano con l’esercito e smantellano i team etici. Persino Elon Musk, da critico a promotore, lancia chatbot accusati di diffondere disinformazione. Parallelamente, crescono imprese che sviluppano IA per scopi militari o di sorveglianza, in un panorama sempre più dominato da logiche commerciali.
C’è chi prova a cambiare rotta. Yoshua Bengio, uno dei padri fondatori dell’IA moderna, ha lanciato LawZero, una startup che punta a creare un’intelligenza artificiale in grado di vigilare sulle altre: una sorta di “controllore” intelligente, progettato per prevenire comportamenti dannosi. Anche Ilya Sutskever, co-fondatore di OpenAI, ha fondato Safe Superintelligence (SSI) per creare un’IA super intelligente allineata ai valori umani, sebbene con dubbi sui finanziamenti.
I veri guardiani dell’IA, però, sembrano oggi essere le organizzazioni civiche e il mondo della ricerca. Sneha Revanur, giovane attivista, ha fondato Encode Justice per dare voce alle nuove generazioni e contrastare gli effetti più pericolosi dell’IA, come le discriminazioni algoritmiche. Allo stesso modo, l’AI Now Institute, guidato da Meredith Whittaker e Kate Crawford, vigila sullo sviluppo tecnologico, denunciando la pericolosa tendenza a lanciare sul mercato sistemi non testati, anche in ambito militare. Molti altri istituti universitari, lavorano per affrontare i rischi concreti dell’IA, concentrandosi su etica, disuguaglianze e implicazioni sociali, con l’obiettivo di costruire strumenti davvero al servizio dell’umanità.
Leggi l’articolo completo “Chi sono i buoni dell’intelligenza artificiale” su Wired.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

