In un nuovo documento di policy, Meta afferma che in alcune circostanze potrebbe decidere di non rilasciare sistemi IA altamente capaci sviluppati internamente. Il documento, chiamato Frontier AI Framework, verrà aggiornato nel tempo per adattarsi all’evoluzione della tecnologia e ai cambiamenti nel settore dell’intelligenza artificiale.
Il testo distingue tra sistemi ad alto rischio e a rischio critico, entrambi potenzialmente in grado di facilitare attacchi informatici, chimici o biologici. I sistemi ad alto rischio potrebbero abbassare la soglia per un attacco, rendendolo più semplice da compiere. In questi casi, Meta limiterà l’accesso all’uso interno finché non avrà implementato soluzioni per mitigare i rischi, riducendoli a un livello moderato. I sistemi a rischio critico, invece, potrebbero causare danni catastrofici impossibili da mitigare nel contesto in cui verrebbero distribuiti. Per questi ultimi, Meta ha previsto misure di sicurezza rafforzate e la sospensione dello sviluppo fino a quando non sarà possibile ridurne la pericolosità intrinseca.
La nuova policy sembra rispondere alle critiche e preoccupazioni legate alla sicurezza dell’IA e all’approccio open di Meta, ben lontano dalla scelta di OpenAI di limitare l’accesso ai suoi sistemi tramite API. La posizione sembra anche voler prendere le distanze da sistemi poco controllati come DeepSeek. L’IA cinese si distingue per la sua innovativa tecnologia open-source, ma risulta vulnerabile a causa di salvaguardie facilmente aggirabili, rendendo possibile la generazione di contenuti dannosi. Nella sua dichiarazione, Meta sottolinea l’importanza di bilanciare benefici e rischi nello sviluppo dell’IA, affermando che la tecnologia può essere resa accessibile alla società mantenendo un livello di rischio accettabile.
Leggi l’articolo completo: “Meta says it may stop development of AI systems it deems too risky” su TechCrunch
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

