Lo sviluppo di ‘sistemi decisionali automatizzati’ ha ricevuto un forte impulso grazie a macchine dotate di ampie capacità di calcolo riferite a enormi quantità di dati, grazie allo sviluppo di algoritmi di profilazione e sistemi di intelligenza artificiale. Questi sistemi stanno trasformando numerosi aspetti della nostra società, influenzando in maniera significativa le modalità con cui vengono prese decisioni cruciali nella – e per – la vita di tutti i giorni. Oggi, utilizziamo sempre più spesso artefatti non per facilitare il compimento di un’azione, un’attività o un’operazione già pianificata, bensì per assumere decisioni. Per nostro conto.
Le decisioni automatizzate sono sempre più integrate nelle nostre vite quotidiane e lo saranno ancor di più man mano che la tecnologia continuerà ad evolversi. Esse rappresentano una tappa significativa nell’evoluzione degli strumenti digitali e delle pratiche decisionali, per cui diventa essenziale comprendere le implicazioni che ciò comporta sul piano della tutela dei diritti fondamentali.
Sul piano delle tutele, com’è noto, il principale riferimento normativo è rappresentato dall’art. 22 del Gdpr, che ha introdotto il concetto di ‘non esclusività’ della decisione automatizzata: l’interessato ha il diritto di non essere sottoposto a una decisione basata ‘unicamente’ sul trattamento automatizzato. La tutela prevista dal regolamento si fonda così sul bilanciamento tra automazione e intervento umano, imponendo all’interprete di indagare le diverse dinamiche che caratterizzano i processi decisionali automatizzati, alla ricerca di evidenze sulla prevalenza dell’uno o dell’altro fattore. Ebbene, una siffatta indagine non risulta per nulla scontata in contesti, oggi sempre più frequenti, formati da reti complesse di input, algoritmi e interventi umani. Inoltre, anche laddove potrebbe apparire rilevante l’intervento umano, è alto il rischio che tale intervento sia limitato a una ‘presa d’atto’ della decisione della macchina, assumendo la decisione già confezionata come propria dell’uomo. E così, la decisione umanizzata verrebbe sottratta alle tutele del Gdpr.

Tale aspetto è stato già messo in luce in letteratura ma oggi possiamo registrare sull’argomento una prima reazione della Corte di giustizia (C-634/21, Schufa). La corte è intervenuta sull’applicabilità del divieto di decisioni automatizzate rispetto agli algoritmi di credit scoring, molto diffusinel settore bancario e finanziario, ove vengono impiegati per valutare il rischio di credito di un individuo o di un’azienda, indirizzando la decisione sul se concedere un prestito, a quale tasso di interesse e a quali condizioni.
La decisione è di particolare interesse poiché mette in luce che pur quando la decisione automatizzata risulti assunta grazie all’intervento umano, e quindi appaia non ‘unicamente’ automatizzata, di fatto può rappresentare il frutto esclusivo della decisione computazionale, da assoggettare conseguentemente al divieto in parola. In particolare, è stato accertato che, se da un lato vi era una società (Schufa Holding) che forniva ai suoi partner contrattuali informazioni sul merito creditizio di terzi attraverso un pronostico sulla probabilità di un loro comportamento futuro (‘score’), dall’altro vi era la banca che si determinava nel concedere o negare il credito esclusivamente recependo il punteggio elaborato dall’algoritmo.
Ebbene, la decisione della corte è destinata a far discutere a lungo poiché mette in evidenza come le tutele previste dall’art. 22 del Gdpr saranno sempre più difficili da attuare: per via della complessità sempre più spinta dei processi che concorrono alla formazione delle decisioni automatizzate; per via della tendenza dell’uomo ad appiattirsi sui risultati della macchina e delle sue capacità di aggregare, elaborare e inferire enormi quantità di dati; per via della facilità con cui l’uomo è pronto ad abdicare dalla proprie responsabilità di decidere; per via delle difficoltà concrete di poter reclamare le tutele previste dall’art. 22 Gdpr da parte di chi, avendone diritto, non possiede le conoscenze per indagare la complessità delle diverse dinamiche e interconnessioni che caratterizzano i sistemi decisionali automatizzati.
Tuttavia, l’interpretazione offerta dalla corte circa la nozione giuridica di ‘decisione automatizzata’, tale da includere anche il credit scoring, rappresenta l’occasione per seguire nuovo percorso, avvalorando l’esigenza di una prospettiva omnicomprensiva del concetto di decisione automatizzata, nel senso di dover guardare alle decisioni automatizzate come il frutto di ‘sistemi decisionali’, cioè di sistemi complessi i cui elementi finiscono per combinarsi tra loro fino a fondersi l’un l’altro, senza possibilità di individuarne una prevalenza o una esclusività. Questo cambio di prospettiva consentirebbe di analizzare le decisioni automatizzate come il frutto di un complesso di interazioni tra differenti componenti, umane e digitali, volgendo così lo sguardo al percorso, al contesto, alle componenti e alle dinamiche del decidere. Nel loro insieme. Lo sguardo unitario saprà includere non solo il momento in cui l’algoritmo viene concepito e addestrato ma anche il contesto in cui viene implementato e le interazioni con le componenti umane.
A fronte di tale scenario sarebbe di certo auspicabile che il legislatore si soffermasse, anche per ragioni di certezza del diritto, sui limiti applicativi della nozione positiva di decisione automatizzata, superando l’elemento scriminante della decisione ‘unicamente automatizzata’, foriera di complessità interpretative e difficoltà applicative. Ma non sarebbe sufficiente. Oggi non possiamo non riconosce alle nuove tecnologie il vantaggio di espandere i confini della cognizione umana, determinando la liberazione della persona dai propri limiti cognitivi e assicurando alla società intera una profonda innovazione. E non possiamo rinunciare a tanto. Occorre, quindi, sviluppare una riflessione di sistema sulle ragioni che dovrebbero fondare il ricorso alla delega computazionale e su quelle che, invece, dovrebbero spingere a preservare una decisione umana.
In definitiva, resta da chiedersi quanta parte di libertà siamo disposti a cedere e per quale imperativa ragione. Se lo scopo sarà quello di prevenire le frodi o l’evasione fiscale, attacchi terroristici o cyber attacchi, oppure di migliorare le diagnosi mediche e i piani di trattamento sanitario saremo ben disposti a rinunciare ad una parte di libertà. Se lo scopo è quello di dirci ciò che possiamo fare (aprire un mutuo, fittare casa, aver un lavoro ecc.) e, quindi, ciò che possiamo essere, allora ci rendiamo conto di come la delega compu-decisionale è fortemente oppressiva, visto che il suo algoritmo predittivo confina la persona nel proprio vissuto, decide il suo futuro legandolo al suo passato, senza il riconoscimento di un diritto all’oblio comportamentale.

È in questa prospettiva che può esser letto, e rinvigorito, il divieto di decisioni automatizzate e il diritto all’intervento umano, la cui ratio non deve esser collegata alla preoccupazione per l’uomo di perdere il controllo della propria esistenza a causa di decisioni automatizzate potenzialmente ingiuste o discriminatorie, bensì al riconoscimento di un diritto all’oblio. Nel mondo digitale la persona perde quella tutela naturaliter dello scorrere del tempo, tutela che va reintegrata con i necessari aggiustamenti. Non che debbano introdursi altri diritti. L’idea di fondo è che i ‘sistemi decisionali automatizzati’ debbano esser permeati da una prospettiva incentrata sui diritti fondamentali, sì da compensare quello sviluppo che oggi appare orientato esclusivamente all’efficienza delle nuove tecnologie.
In definitiva, le ragioni ideali del riconoscimento del diritto all’oblio comportamentale risiedono nel valore della persona umana, caposaldo irretrattabile del costituzionalismo moderno, tanto nella sua dimensione nazionale che sovranazionale, ed in particolare in quella europea. Non si propone, dunque, una lettura soltanto in termini di pericolo di discriminazione nell’uso dei sistemi decisionali automatizzati. Sarebbe riduttivo. Non si tratta dell’esigenza di tutela di gruppi marginali o minoritari, bensì di tutelare tutti valorizzando le differenze, in quanto necessarie per garantire il pluralismo, la pari dignità sociale (art. 3, comma 1 Cost.), il perseguimento dell’uguaglianza (art. 3, comma 1, Cost.) e il pieno sviluppo della persona umana (art. 3, comma 2, Cost.). E, in un’epoca in cui l’accesso a molti servizi, sia pubblici che privati, è disposto sulla base di una delega compu-decisionale la cui complessità rende fragili le tutele normative, il diritto all’oblio appare un rimedio necessario a garantire il pieno sviluppo della persona umana.

