OpenAI ha pubblicato ad aprile un aggiornamento della seconda edizione del documento “Model Spec”, un codice etico per l’addestramento di modelli come ChatGPT. Questo documento, apparso inizialmente nel maggio 2024 e aggiornato a febbraio 2025, specifica il comportamento atteso dei modelli di IA.
Con il rapido sviluppo dei sistemi di IA, la questione etica diventa sempre più rilevante. I modelli di linguaggio, essendo “learning machines” con comportamento appreso anziché programmato, rendono complessa l’attribuzione di responsabilità. Difatti, a differenza dei software tradizionali, le loro regole di comportamento non sono sempre identificabili e l’interazione è influenzata da opinioni morali apprese durante l’addestramento stesso.
Il codice etico “Model Spec” stabilisce una gerarchia di responsabilità attraverso “livelli di autorità”, seguendo il principio che le istruzioni con maggiore autorità prevalgono su quelle con minore. I fondamenti di questa struttura sono due: massimizzare l’utilità e la libertà per gli utenti e minimizzare il rischio di danni.
La tensione tra questi principi richiede un bilanciamento difficile, complicato dall’assenza di un’etica universale. Questa situazione, dunque, carica di maggiore responsabilità sia gli addestratori dei modelli che gli utenti stessi e riflette quanto scritto da Hans Jonas: in un mondo di possibilità tecnologiche senza precedenti, abbiamo bisogno di un’etica nuova per orientarci in una realtà dove potremmo non essere più gli unici attori morali.
Leggi l’articolo completo Model Spec di OpenAI: etica e responsabilità nell’addestramento dei modelli di linguaggio su Il Sole 24 Ore.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

