• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Carta Etica di Urbino: IA, salute, ambiente e lavoro

Carta Etica di Urbino

1. Un contesto che chiama al pensiero

La Summer School  su “Intelligenza Artificiale per il Benessere Inclusivo e Sostenibile: Ripensare Salute, Lavoro e Ambiente”, svoltasi all’Università di Urbino (25–31 agosto 2025), ha messo a fuoco il nesso tra IA, salute, lavoro e ambiente, culminando in momenti di confronto pubblico al Palazzo Ducale. L’impianto formativo e il convegno conclusivo (“Chi decide? Intelligenza artificiale e responsabilità condivisa”) hanno offerto il quadro: l’IA non è un settore, ma un fatto culturale che ridisegna pratiche, istituzioni e responsabilità, e chiede linguaggi normativi all’altezza della sua pervasività.

In questo contesto la Carta Etica di Urbino per IA, Salute, Ambiente e Lavoro è stata elaborata come spazio di convergenza tra cittadini, ricercatori, educatori, lavoratori, sindacati, consumatori, imprese e decisori. Non è un “decalogo per addetti ai lavori”, ma un dispositivo di alleanza civica che fa della trasversalità il proprio punto di forza.

2. L’architettura della Carta: dieci principi per orientarsi

La Carta muove da una diagnosi: viviamo una transizione epocale in cui crisi ambientali, rivoluzione digitale e metamorfosi del lavoro si intrecciano. Da qui l’esigenza di un orizzonte morale condiviso che non si esaurisca in prescrizioni tecniche. Il nucleo è affidato a dieci principi — dignità e libertà; responsabilità, trasparenza e controllabilità; tutela dell’ambiente e delle generazioni future; giustizia sociale e inclusività; educazione al pensiero critico; pluralismo etico e interdisciplinarità; partecipazione democratica; valorizzazione del lavoro e delle competenze; promozione della salute e della cura; sostenibilità integrata. La Carta li coniuga con impegni operativi: formazione, linguaggi comuni, strumenti di certificazione e verifica. In breve: criteri e cantieri.

Questa grammatica etica non “aggiunge” morale alla tecnica: reimposta la tecnica in chiave relazionale e intergenerazionale. La sostenibilità non è un vincolo esterno ma un modificatore dell’innovazione: la tecnica è per qualcuno, in qualche luogo, con effetti e verso futuri possibili.

3. Stabilità senza dogmatismo

L’atteggiamento sollecitato dalla Carta si può rendere con un’immagine semplice: fondazioni rialzate — palafitte che reggono l’edificio lasciando margini d’assestamento. L’IA, con le sue opacità e la centralità delle prestazioni, mette alla prova criteri maturati nel tempo: non si tratta di abbandonarli, ma di esercitarli con saggezza.

Ciò che la Carta rifiuta sono le rigidità, di qualunque segno, che trasformano i principi in blocchi inamovibili. Per seguire contesti variabili occorrono phronesis e responsabilità: leggere il caso, rendere conto delle scelte, correggere la rotta. I punti d’appoggio restano chiari — dignità, bene comune e giustizia, responsabilità prudenziale, veridicità e trasparenza, sostenibilità intergenerazionale, sussidiarietà e partecipazione — ma valgono come criteri operativi: orientano senza blindare, fungono da tiranti e livelle per progettare, verificare e, se occorre, ritarare. Da qui l’insistenza su quadri regolativi verificabili e contestabili: strumenti che custodiscono i principi senza irrigidirli e li traducono in pratiche di verifica indipendente (audit), tracciabilità, controllo umano effettivo e coinvolgimento. È una via intermedia tra la tentazione di “mettere tutto su roccia” e quella di “lasciare tutto alla palude”: accompagnare l’innovazione dall’inizio, interrogarla, correggerla, riprogettarne processi e metriche.

4. Métron e métrion: misurare e giudicare

Una chiave teoretica utile è la distinzione, di ascendenza platonica, tra métron (misura oggettiva) e métrion (misura qualitativa e situata). I sistemi di IA eccellono nel primo registro: ottimizzano, correlano, predicono. Ma le decisioni che toccano vita e giustizia richiedono anche il secondo: interpretazione, esperienza, phronesis. Insistendo su trasparenza, controllabilità e partecipazione, la Carta reinserisce il métrion nel ciclo tecnico-decisionale, evitando la delega cieca al métron dell’algoritmo. Questa integrazione non è anti-tecnologica: è anti-riduzionista. Chiede spiegabilità dove possibile, rendicontabilità sempre, e soprattutto contestabilità pubblica delle scelte automatizzate.

5. Dai criteri alle scelte: un bilanciamento operativo

L’assetto proposto dalla Carta non somma regole: le bilancia.

La beneficenza non coincide con l’ottimizzazione di un indicatore: chiede di misurare il bene alla scala della salute pubblica, della qualità del lavoro e dell’integrità degli ecosistemi, tenendo insieme salute e ambiente ed evitando scambi al ribasso tra vantaggi immediati e danni futuri.

La giustizia entra nelle pieghe dei dati e delle infrastrutture, chiedendo che rischi e benefici siano distribuiti con equità e che la partecipazione non sia di facciata.

L’autonomia protegge il giudizio: l’IA sostiene, non sostituisce; per questo la controllabilità umana e l’alfabetizzazione critica restano condizioni di libertà, in medicina come nel lavoro.

L’esplicabilità non è un orpello: è il nome dei diritti di rendicontazione pubblica (trasparenza, tracciabilità, possibilità di contestazione) che riportano le decisioni automatiche sotto un controllo condiviso.

6. Dalla conformità alla co-progettazione: l’ethos della Summer School

La settimana urbinate ha mostrato cosa significa mettere a terra questi criteri: dialogo tra sanità, imprese, sindacati, consumatori, ricerca, amministrazioni; laboratori su etichetta trasparente e sostenibilità condivisa; riflessioni su IA, creatività e competenze. Non una vetrina, ma un laboratorio di governance.

È questo stile che la Carta istituzionalizza: patti sociali e formazione continua come infrastrutture dell’etica pubblica dell’IA. Sul piano teorico, ciò coincide con l’idea che l’etica non “arrivi dopo” a giudicare l’innovazione, ma la co-progetti: nella definizione degli obiettivi, nella scelta delle metriche, nella valutazione dei rischi, nella misura degli impatti.

È il passaggio dall’“etica applicata” all’etica incorporata nei processi decisionali.

7. Cantieri operativi

La Carta chiede competenze, strumenti e luoghi.

Competenze: un’alfabetizzazione scientifica ed etica che consenta di comprendere modelli e dati, e di leggere gli immaginari che li accompagnano.

Strumenti: verifiche indipendenti, tracciabilità dei dati, etichette trasparenti che rendano visibili equità, impatto ambientale e forme di governo.

Luoghi: tavoli permanenti in cui ragioni morali e interessi legittimi siano messi per iscritto, discussi, corretti. Solo così la promessa di responsabilità smette di essere retorica e diventa pratica pubblica.

8. Carta di Urbino e AI Act: norme e fini

Il Regolamento europeo sull’intelligenza artificiale (AI Act) offre un quadro giuridico basato sul rischio: definisce soglie, ruoli e adempimenti, stabilisce requisiti per i sistemi ad alto rischio e per i modelli di impiego generale, rafforza trasparenza, tracciabilità e controllo umano. La Carta Etica di Urbino fornisce la grammatica dei fini e dei criteri con cui orientare scelte che la sola conformità non esaurisce. In questo senso, i due testi sono complementari: il Regolamento mette a fuoco che cosa evitare e come procedere; la Carta chiarisce perché e in vista di che cosa procedere.

Le consonanze emergono con chiarezza. La tutela dei vulnerabili e l’equa distribuzione di benefici e oneri trovano un corrispettivo operativo nella gestione del rischio lungo il ciclo di vita dei sistemi: la misura dei pericoli diventa misura della giustizia pratica. L’insistenza su spiegabilità, rendicontabilità e contestabilità si traduce in documentazione, registri e informativa: non solo adempimenti tecnici, ma riconoscimento del diritto dei cittadini a comprendere e discutere decisioni automatizzate. Il controllo umano non è presenza formale: è esercizio di giudizio che legge il caso, fissa soglie, revoca o sospende quando necessario. La sussidiarietà orienta processi decisionali collocati al livello più vicino e competente, con un coinvolgimento reale dei portatori di interesse: la conformità normativa diventa corresponsabilità pubblica. La sostenibilità integrata chiede valutazioni d’impatto ambientale, sociale e lavorativo non come capitoli separati, ma come forma della razionalità prudenziale quando si ragiona su tempi lunghi e generazioni future.

9. Conclusioni

La Carta indica una postura prima ancora che un insieme di regole: una umiltà operosa davanti alla realtà, che riconosce i limiti dei modelli e la parzialità degli sguardi. Umiltà non significa arretrare, ma imparare: lasciare che l’esperienza smentisca, corregga, riorienti; assumere che il funzionare non decide da sé il valere. Per questo la tecnica più affidabile è quella che accetta di rendere conto e di farsi fermare, quando occorre.

La collaborazione qui non è un abbellimento procedurale: è il modo in cui il giudizio diventa giusto. Nessuno, da solo, vede tutto ciò che è in gioco nella salute, nel lavoro, nell’ambiente. Servono luoghi in cui le ragioni si ascoltano davvero, le competenze si intrecciano, le responsabilità hanno nome e tempo; luoghi in cui chi è toccato dalle decisioni può comprenderle e discuterle. Così l’intelligenza si fa comune: convergono saperi diversi e l’IA riceve—non impone—la propria misura.

A orientare questo cammino è la sobrietà, intesa come disciplina della misura: preferire l’essenziale al superfluo, il proporzionato al vistoso; evitare scambi al ribasso tra vantaggi immediati e danni futuri; usare i dati con parsimonia e trasparenza; predisporre sempre una via di ripensamento. Sobrietà è anche custodia: delle persone più esposte, dei legami di lavoro, degli equilibri dei luoghi.

In questo orizzonte l’innovazione non è un assoluto, ma una pratica pubblica che si prova nel servizio reso al bene di ciascuno e di tutti. La Carta lo afferma con chiarezza: la buona misura unisce numeri e giudizio, potenza e responsabilità; procede con passo sobrio, in compagnia degli altri, con lo sguardo attento al reale e rivolto ai fini condivisibili. Così l’IA cessa di misurare l’umano e si lascia misurare dall’umano che merita di durare.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi