• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Una Intelligenza Artificiale degna di fiducia

mano tesa in segno di fiducia

Alcuni termini e concetti ricorrono frequentemente nel dibattito pubblico sull’AI. La prima parola assai ricorrente è pervasività.

Ciò su cui si concorda è che l’AI e le sue applicazioni sono pervasive, sia nel senso dellacrescente presenza dell’AI nelle nostre società sia nel senso della discussione scientifica intorno a questa disciplina e le tecnologie che sviluppa.

La pervasività dell’uso potenzialmente sempre più esteso di sistemi di AI in molteplici contesti genera nell’opinione comune come nel dibattito specialistico di studiosi e studiose di vari ambiti disciplinari, una serie di riflessioni improntate, contemporaneamente, alla paura e alla speranza. Anche queste due parole ricorrono dunque frequentemente e investono il livello della percezione diffusa delle tematiche sulla AI, alimentata inoltre dalla diffusione di questi temi da parte dei media, che spesso, però, presentano l’AI come una tecnologia intelligente certamente utile per il lavoro, per la salute, per il tempo libero, per la comunicazione, per la organizzazione ma, anche, potenzialmente in grado di superare, prevaricare fino a esautorare, l’intelligenza umana e la sua propria capacità di individuare soluzioni adeguate per specifici ordini di problemi.

Si è quindi sviluppata una vera e propria narrazione dell’AI che ruota intorno allo sfondo concettuale della “inevitabilità”, cioè la prospettiva secondo cui lo sviluppo delle macchine continuerà secondo la propria logica, indipendentemente dai bisogni umani. Questa narrazione è declinata secondo i due punti di vista della paura e della speranza: il primo è il catastrofismo tecnologico, la cui idea di fondo è che l’Intelligenza Artificiale rappresenti una minaccia per il futuro dell’umanità e che l’umanità stessa diventerà obsoleta (superata) rispetto alle macchine (come spesso comunicato anche dai media e dai social); il secondo è, invece, il rischio di una fiducia acritica nelle macchine come strumenti di miglioramento della vita umana.

Foto di Andy Kelly su Unsplash

La retorica della paura dell’AI del futuro si concentra sulla preoccupazione per l’avvento di macchine dotate di intelligenza superiore a quella umana, che migliorano autonomamente la loro architettura (Singularity – Vernor Vinge, 1993): lo sviluppo possibile di una Super-intelligenza”, intesa come stato di singolarità tecnologica a cui si giungerà dato il rapido sviluppo della tecnologia (cfr. Legge di Gordon Moore). Una delle principali paure proviene dall’imitazione del comportamento, del linguaggio e delle abilità umane di cui alcune tecnologie intelligenti sono oggi già in grado (Chat GPT e company ad esempio) e la paura è che questo possa creare in futuro esseri umani artificiali, impoveriti ed esautorati dalle macchine. C’è una cinematografia che rappresenta queste paure, a partire dal film cult degli anni 90, The Matrix, che racconta, sviluppando la celebre metafora dei “cervelli in una ampolla” del filosofo Ilary Putnam  (1981, Reason, Truth and History), di un futuro lontanissimo in cui le intelligenze artificiali hanno avuto la meglio sugli esseri umani e sono riuscite a intrappolarli in una realtà simulata; c’è una letteratura, come il bel romanzo del 2019 di Ian MacEwin, Macchine come me, che racconta di un futuro distopico abitato da umani e androidi intelligenti, capaci di entrare nelle relazioni umane replicandone sentimenti ed emozioni di rabbia, paura, amore, vergogna; c’è una filosofia che riflette sul tema del rapporto tra essere umano e tecnica, prefigurando, a partire dalla antropologia filosofica di metà novecento di Günther Anders e del suo L’uomo è antiquato, l’incapacità dell’essere umano di rimanere al passo con la propria produzione tecnologica e i suoi inarrestabili progressi.

Ritengo che sia necessario sottrarsi alla retorica dell’inevitabilità tecnologica catastrofista riconoscendo, da un lato, le opportunità che gli sviluppi attuali e futuri dell’AI offrono nella costruzione di un futuro migliore per gli esseri umani, e, d’altro canto, riflettendo sui potenziali rischi e sulle criticità che le nuove tecnologie intelligenti presentano in modo da non cadere nel “bias positivo di automazione”, ossia nel pregiudizio della infallibilità delle macchine.

Gli utilizzi attuali e le possibilità future della AI e la correlata pervasività di questo tema e delle sue implicazioni sollevano dunque questioni di fiducia. Nella prospettiva indicata da Onora O’Neill nel 2002, all’indomani della esperienza traumatica del Ground Zero, la fiducia e la perdita di fiducia sono sempre relative al rischio, alla diffidenza, alla insicurezza, alla vulnerabilità e la fiducia rappresenta una virtù coraggiosa che richiede, impegno, formazione, cultura dei doveri e delle responsabilità (O’Nell, (2003), Una questione di fiducia). Diventa dunque di grande importanza riflettere sulla necessità di rigenerare il paradigma della fiducia. Come si fronteggiano paure e speranze e come si ripristina il paradigma della fiducia e del suo correlato aspetto della affidabilità? Per progettare, immaginare, sviluppare in futuro macchine intelligenti degne di fiducia e quindi affidabili si ricorre all’etica, che diventa dunque il termine decisivo del dibattito nazionale e internazionale sull’AI.

Foto di National Cancer Institute su Unsplash

Secondo le strategie europee per una etica dell’AI e per un umanesimo digitale, si deve ricorrere all’idea di acquisire priorità etiche dagli esseri umani e usarle sulle AI e quindidi usarleper la loro programmazione. I paradigmi e i principi etici di riferimento da cui emergono valori e priorità sono appunto quelli noti e molti studiosi, come Floridi e Cowls, nel 2019, hanno proposto di adottare per l’AI gli stessi principi sviluppati dall’etica biomedica: beneficenza, non maleficenza, autonomia e giustizia . L’idea di fondo è quella, condivisibile, di una AI a servizio di una visione etica della società e a beneficio dell’umanità intera con cui fronteggiarne le paure e sostenerne le speranze. Tuttavia, l’AI presenta sfide uniche che richiedono un adattamento delle teorie etiche tradizionali alle nuove questioni che la pervasività dell’AI solleva, un ripensamento critico dei principi classici dell’etica e forse anche l’avvio di un confronto su come l’etica stessa possa essere influenzata e trasformata dalla Intelligenza Artificiale. Occorre, forse, dare priorità a principi etici differenti con cui affrontare i problemi concreti che lo sviluppo attuale dell’AI, soprattutto dell’AI generativa, solleva. Al momento, l’AI non agisce per proprio conto ma per conto dei team di programmatori delle grandi aziende private leader nel settore, riflettendone e amplificandone bias di vario tipo, culturale, etico, economico, sociale. Kate Crawford in Atlas of AI del 2021 sostiene che non possiamo salvarci dal problema dei bias solo migliorando gli algoritmi, perché i sistemi di intelligenza artificiale di cui stiamo parlando funzionano essenzialmente effettuando classificazioni e le persone che classificano possono decidere quali differenze fanno la differenza. In relazione al problema dei bias, come anche in relazione alle nuove forme di disuguaglianza sociale, di divario digitale e di genere, determinate da un accesso ineguale alle tecnologie e alle informazioni digitali, diventano fondamentali i due principi etici della equità (fairness)e del pluralismo: nell’era della cultural analytics migliorare l’equità digitale significa adottare un principio di pluralismo. Più voci, più punti di vista possono aiutare a evitare errori di pregiudizio seguendo un approccio interdisciplinare e interculturale. Solo attraverso la maggiore espansione possibile dei dataset di addestramento è possibile evitare la sotto- o la sovra-rappresentazione delle classificazioni e, in generale, solo in una prospettiva pluralista si possono evitare ulteriori forme di discriminazione sociale ed economica ed alimentare l’idea che delle nuove tecnologie intelligenti ci si possa fidare.

Immagine: Foto di Masjid MABA su Unsplash

Esplora altri articoli su questi temi