Testo base della relazione alla Tavola Rotonda “Intelligenza artificiale, potenziamento umano e bioetica dei diritti: le sfide del XXI secolo” svoltasi il 27 aprile presso l’Università di Stato della Moldavia (USM) a Chisinau.
1. Una trasformazione della razionalità
L’intelligenza artificiale non costituisce soltanto un avanzamento tecnico. Essa introduce una trasformazione più profonda: una trasformazione della razionalità contemporanea. Non muta solo ciò che possiamo fare. Muta anche il modo in cui definiamo il conoscere, il decidere e il valutare.
Per questa ragione, l’intelligenza artificiale non può essere affrontata soltanto in termini di efficienza, sicurezza o regolazione. Essa interpella direttamente la filosofia morale e politica, perché investe categorie fondamentali come libertà, autonomia, responsabilità, verità e coscienza.
In tale prospettiva, il nesso con il potenziamento umano e con la bioetica dei diritti è tutt’altro che accessorio. Il potenziamento umano non riguarda solo l’ampliamento delle prestazioni. Implica anche una ridefinizione del rapporto dell’essere umano con il limite, con il tempo, con la decisione e con la vulnerabilità. La bioetica dei diritti, a sua volta, non riguarda soltanto la protezione da lesioni o abusi. Essa concerne anche le condizioni normative e istituzionali che rendono possibile un soggetto capace di giudizio, di partecipazione e di responsabilità.
La tesi che qui si propone è la seguente: la sfida posta oggi dall’intelligenza artificiale emerge con particolare chiarezza se la si legge attraverso tre nuclei filosofici. Il primo è la distinzione platonica tra métron e métrion. Il secondo è la figura del Grande Inquisitore di Dostoevskij. Il terzo è il tema dell’interiorità, formulato in modo particolarmente fecondo da Agostino.
2. Métron e métrion: due forme della razionalità pratica
Nel lessico platonico, métron indica la misura quantitativa, oggettiva, calcolabile. È la misura che consente comparazione, standardizzazione e generalizzazione. Métrion, invece, indica la misura qualitativa, situata, prudenziale: la misura giusta in rapporto a una circostanza concreta, a una relazione, alla singolarità di un caso.
Il punto decisivo è che métron e métrion non designano soltanto due modi diversi di misurare. Essi rinviano a due forme differenti della razionalità pratica.
Il métron corrisponde a una razionalità funzionale, ordinativa, predittiva. È la razionalità che opera mediante parametri, classificazioni, correlazioni e procedure di ottimizzazione. In questo dominio si colloca in larga misura l’intelligenza artificiale contemporanea. I sistemi di IA analizzano dati, individuano pattern, formulano raccomandazioni, generano priorità. La loro forza consiste precisamente nel trattare grandi quantità di informazione secondo criteri di regolarità, comparabilità ed efficienza.
Il métrion, invece, rinvia a una razionalità pratica in senso forte. Non elimina la misura, ma la sottopone a giudizio. Tiene conto del contesto, della vulnerabilità, dell’eccezione, della qualità della relazione, della rilevanza morale della situazione concreta. Il métrion non coincide con l’arbitrio soggettivo. Designa, piuttosto, quella forma di discernimento che non può essere integralmente tradotta in procedura senza perdita di senso.

La questione, dunque, non è opporre ingenuamente quantitativo e qualitativo. La misura quantitativa è indispensabile in molti ambiti. La questione critica emerge quando il métron cessa di operare come strumento euristico e pretende di assurgere a paradigma esclusivo della razionalità pratica. In quel momento, ciò che è misurabile tende a identificarsi con ciò che è rilevante; ciò che è ottimizzabile con ciò che è giusto.
3. Quantificazione, standardizzazione e compressione dei diritti
Occorre allora chiarire in che modo il predominio del métron possa incidere su libertà e diritti.
La misura quantitativa non sopprime direttamente la libertà. Non agisce come una proibizione esplicita. Il suo effetto è più indiretto e, proprio per questo, più difficile da riconoscere. Essa restringe la libertà quando traduce progressivamente il soggetto in profilo, punteggio, rischio, categoria statistica, rendendo la persona concreta trattabile come caso standardizzato.
Il primo livello è quello dell’autonomia. Quando le decisioni che ci riguardano sono sempre più filtrate da sistemi che raccomandano, selezionano, anticipano e ordinano, il soggetto perde progressivamente lo spazio del proprio giudizio. Non perché gli sia formalmente sottratta la facoltà di scegliere, ma perché la scelta viene già predisposta entro cornici ottimizzate. L’autonomia, in questo scenario, si svuota non per costrizione, ma per esonero.
Il secondo livello è quello della giustizia. La quantificazione standardizza, e la standardizzazione tende a trattare come equivalenti situazioni che equivalenti non sono. Inoltre, i dati incorporano storie sociali, asimmetrie economiche e vulnerabilità pregresse. Per questo il calcolo può riprodurre e intensificare disuguaglianze già esistenti, conferendo loro l’apparenza della neutralità.
Il terzo livello è quello dell’esplicabilità. Se una decisione che incide su diritti, accesso, selezione o trattamento delle persone è opaca, difficilmente comprensibile e scarsamente contestabile, allora il diritto resta formalmente affermato ma si indebolisce nel suo esercizio effettivo. I diritti, infatti, non sono soltanto contenuti normativi da proclamare. Essi richiedono intelligibilità della decisione, possibilità di contestazione, imputabilità della responsabilità, accesso a una giustificazione pubblica.
Si comprende così il punto essenziale: i diritti non vengono messi in crisi dal numero in quanto tale, ma dal momento in cui la quantificazione pretende di decidere da sola su ciò che riguarda persone concrete, sostituendo il giudizio con la sola ottimizzazione.
4. Dalla verità alla performance
Questa dinamica si inserisce entro una trasformazione epistemologica più ampia. Una delle caratteristiche dell’epoca algoritmica è il passaggio dalla verità alla performance.
La tradizione filosofica occidentale, pur nella pluralità delle sue forme, ha legato il conoscere al rendere ragione. Conoscere significava non soltanto ottenere risultati, ma comprendere, giustificare, articolare un senso. L’intelligenza artificiale tende invece a privilegiare ciò che è efficace, predittivo, plausibile, operativamente robusto.
La domanda rischia così di spostarsi da “che cosa è vero?” a “che cosa funziona?”. La spiegazione cede alla correlazione. La comprensione alla previsione. La giustificazione all’output.
Questo slittamento non è neutro sul piano della razionalità pratica. Dove la funzionalità prende il posto della giustificazione, si restringe lo spazio del pensiero critico. Se il sistema appare efficace, perché interrogare ancora il processo che lo ha prodotto? Se la procedura è più rapida e più performante, perché insistere sul momento lento del discernimento?
In questo senso, il métron non è soltanto una forma della misura. Diventa progressivamente una figura egemone della razionalità. E proprio qui si colloca il rischio filosofico: non l’uso di strumenti quantitativi, ma la loro trasformazione in criterio implicito dell’intero spazio del giudicabile.
5. Il Grande Inquisitore: il sollievo come forma del potere
La figura del Grande Inquisitore di Dostoevskij offre una chiave interpretativa particolarmente penetrante di questo processo.
Nel celebre episodio dei Fratelli Karamazov, l’Inquisitore rimprovera a Cristo di aver consegnato all’uomo un bene troppo gravoso: la libertà. Gli uomini, sostiene, non desiderano veramente la libertà. Desiderano pane, sicurezza, autorità, rassicurazione. Preferiscono essere guidati piuttosto che assumere il peso del discernimento.
Il tratto filosoficamente più rilevante di questa figura è che l’Inquisitore non si presenta come un puro despota. Si presenta come colui che vuole sollevare l’essere umano dall’angoscia del decidere. Il suo potere non è innanzitutto repressivo; è paternalistico. Governa in nome del sollievo.
È precisamente questo che rende il nesso con l’intelligenza artificiale così istruttivo. L’algoritmo non è il Grande Inquisitore in senso letterale. Ma può incarnare una tentazione strutturalmente analoga: quella di alleggerire l’essere umano dal peso del giudizio, dell’incertezza e della responsabilità. Non attraverso la costrizione, ma attraverso la comodità. Non imponendo, ma suggerendo. Non vietando il dissenso, ma rendendolo progressivamente superfluo.
Il rischio, allora, non è l’uso dell’IA come tale, bensì la sua assolutizzazione. Quando l’algoritmo diventa il nuovo ovvio, la libertà non viene soppressa frontalmente; viene svuotata dall’interno. Ogni decisione umana appare più lenta, più fragile, più inefficiente. Il soggetto viene così esonerato dalla fatica della scelta, ma insieme perde una parte essenziale della propria dignità morale e politica.
Il Grande Inquisitore consente dunque di comprendere che la perdita della libertà può assumere la forma del sollievo organizzato. È questa una delle figure più sottili del potere contemporaneo.
6. Interiorità e coscienza: il nucleo non delegabile del soggetto
Per comprendere fino in fondo ciò che rischia di essere perduto, occorre introdurre un terzo elemento: l’interiorità.
La formula agostiniana intimior intimo meo indica che nell’essere umano vi è una dimensione non riducibile alla pura oggettivazione: la memoria, il giudizio morale, la coscienza, il rapporto con il tempo, la possibilità di attribuire senso all’esperienza.
Anche al di fuori di un quadro teologico, questa intuizione mantiene una grande forza teorica. L’essere umano non è soltanto un sistema che elabora informazioni. È anche un soggetto che ricorda, interpreta, si interroga, si assume responsabilità, vive il conflitto tra possibilità diverse.
L’intelligenza artificiale opera invece su un piano differente. Essa non abita l’interiorità. Non vive il dubbio, non conosce il peso di una scelta, non sperimenta il tempo vissuto. Può calcolare, simulare, prevedere; ma non può sostituire quella dimensione interiore in cui maturano coscienza e responsabilità.
Per questo l’interiorità costituisce un presidio di libertà. Non perché sia un rifugio intimistico, ma perché è il luogo in cui il soggetto non coincide con il proprio profilo misurabile. Lì si radica la possibilità del discernimento. Lì l’umano resiste alla propria completa esternalizzazione.

Senza interiorità, il métrion si svuota. Perché la misura qualitativa non è soltanto attenzione al contesto esterno. È anche profondità riflessiva, memoria, temporalità vissuta, capacità di assumere come propria una decisione.
7. Il nesso con la bioetica dei diritti
A questo punto il collegamento con la bioetica può essere formulato con maggiore precisione.
La bioetica concerne i contesti in cui sono in gioco vulnerabilità, cura, dipendenza, selezione, accesso a beni fondamentali, asimmetrie di potere, esposizione del soggetto a decisioni che incidono sulla sua vita. In tutti questi ambiti, la riduzione della persona a dato, profilo o punteggio comporta conseguenze non solo tecniche, ma normative.
La questione bioetica emerge precisamente quando la normatività pratica non è riducibile alla sola ottimizzazione di esiti. Non basta chiedere che cosa funzioni meglio. Occorre chiedere anche che cosa sia giusto, per chi, a quale costo, con quali esclusioni, sotto quali condizioni di giustificabilità.
In questo senso, il contrasto tra métron e métrion è una questione bioetica in senso forte. La bioetica difende infatti il soggetto concreto contro la sua riduzione a caso astratto. Difende la singolarità della persona in contesti in cui la standardizzazione rischia di diventare moralmente cieca. Difende, inoltre, le condizioni istituzionali dell’esercizio dei diritti: comprensione, partecipazione, possibilità di contestazione, imputabilità delle decisioni.
Si può dunque dire che la bioetica dei diritti è oggi chiamata non tanto a porre limiti esterni all’innovazione, ma a custodire uno spazio umano non integralmente delegabile.
8. Conclusione
La sfida dell’epoca algoritmica non consiste soltanto nel governare sistemi sempre più potenti. Consiste nel fare in modo che il métron, cioè la misura quantitativa, calcolabile e standardizzabile, non colonizzi interamente il métrion, cioè la misura qualitativa, situata e prudenziale del discernimento umano.
Il Grande Inquisitore ricorda che l’essere umano può essere tentato di rinunciare alla libertà in cambio di sicurezza e semplificazione. L’intelligenza artificiale rende questa tentazione più dolce, più efficiente, più invisibile.
L’interiorità, invece, ricorda che nell’umano vi è una dimensione che non può essere integralmente esternalizzata: il luogo della coscienza, della memoria, del tempo vissuto, della responsabilità.
Per questo i diritti non si difendono soltanto mediante enunciazioni astratte. Si difendono anche custodendo le condizioni concrete della libertà: la possibilità di comprendere, di giudicare, di contestare, di assumere come propria una decisione.
Tra métron e métrion si gioca dunque qualcosa di più di una distinzione teorica. Si gioca la possibilità che l’umano continui a essere non solo ciò che può essere misurato, ma anche ciò che può ancora rispondere di sé.
Bibliografia
Agostino, Confessiones.
Agostino, De libero arbitrio.
Aristotele, Metafisica.
Crawford, Kate, Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, New Haven, Yale University Press, 2021.
Dostoevskij, Fëdor M., I fratelli Karamazov.
Harari, Yuval Noah, Homo Deus. Breve storia del futuro, Milano, Bompiani, 2017.
Jaspers, Karl, Origine e senso della storia, Bologna, Il Mulino, 1949.
Jonas, Hans, Il principio responsabilità. Un’etica per la civiltà tecnologica, Torino, Einaudi, 1990.
Platone, Politico, in Tutti gli scritti, a cura di Giovanni Reale, Milano, Bompiani, 2006.
Polanyi, Michael, La conoscenza inespressa, Roma, Armando, 1979.
Ricœur, Paul, Sé come un altro, Milano, Jaca Book, 1993.
Searle, John R., “Minds, Brains, and Programs”, in Behavioral and Brain Sciences, 3 (1980), n. 3, pp. 417-457.
Sgreccia, Palma, IAetica su palafitte, Roma, Armando, 2026.
Sgreccia, Palma, “IA-etica ‘su palafitte’: una proposta per l’epoca dell’Intelligenza Artificiale”, in MagIA, 20 ottobre 2024.
Sgreccia, Palma, “L’età assiale dell’Intelligenza Artificiale”, in MagIA, 3 gennaio 2025.
Sgreccia, Palma, “L’algoritmo e il Grande Inquisitore: libertà nell’era digitale”, in MagIA, 25 aprile 2025.
Sgreccia, Palma, “‘Intimior intimo meo’: interiorità e coscienza nell’era artificiale”, in MagIA, 8 giugno 2025.
Wachter, Sandra, Mittelstadt, Brent, Russell, Chris, “Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR”, in Harvard Journal of Law & Technology, 31 (2018), n. 2, pp. 841-887.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

