• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’approccio di Daniel Dennett all’intelligenza artificiale

Quasi tutti coloro che stanno leggendo questo articolo si saranno imbattuti nell’immagine di papa Francesco che indossa un piumino bianco di alta moda lungo fino ai piedi, oppure di Donald Trump che viene arrestato con la forza dalla polizia americana nel mezzo di una via affollata. Sono immagini costruite al computer grazie a nuovi algoritmi di intelligenza artificiale generativa, capaci di prestazioni straordinarie in termini di somiglianza con una foto digitale. Si tratta in effetti di una ricostruzione a partire da scatti reali e guidata dall’operatore umano che dà istruzioni verbali o scritte sul risultato che vuole ottenere.

Malgrado la verosimiglianza dell’opera ottenuta, pochissimi saranno tratti in inganno dalla “cattura” di Trump, perché una notizia così clamorosa non potrebbe circolare soltanto nella forma di qualche foto diffusa non da canali ufficiali né dai principali media. L’immagine del Pontefice potrebbe invece ingannare e, tutto sommato, potremmo pensare che crederla reale non provocherebbe conseguenze particolari. Tutti sanno che Francesco ha fatto scelte di povertà, dalla residenza al modo di viaggiare, quella giacca forse è un regalo – ne riceve tanti – oppure non è così costosa come si potrebbe pensare. Insomma, la reputazione del Papa non verrebbe intaccata, anche se la diffusione di un falso è in sé un’azione scorretta e, in certi contesti, anche illegale. Se però qualcuno credesse che il leader dei repubblicani statunitensi è stato privato dalla sua libertà – e considerati le accuse e i processi in corso non è più un’ipotesi remota quanto in passato -, allora reazioni politiche e, forse, anche mobilitazioni di piazza non dovrebbero essere escluse. Ecco un caso in cui un’immagine costruita, e intesa solo come “scherzo” sul web, avrebbe effetti reali e significativi.

Foto di Elijah Hiett su Unsplash

Questi e altri esempi avevano destato le allarmate preoccupazioni di Daniel Clement Dennett nei suoi ultimi anni di produttiva esistenza. Il grande filosofo e scienziato cognitivo, nato nel 1942 e morto il 19 aprile del 2024, aveva colto appieno i pericoli connessi con il deepfake, la tecnologia basata sull’intelligenza artificiale che permette di creare video, immagini o audio falsi estremamente realistici. Questi contenuti vengono generati utilizzando reti neurali artificiali, in particolare le reti generative antagonistiche, che sono capaci di apprendere e replicare dettagli complessi di volti, voci e movimenti umani.

Oltre alle immagini che si sono descritte in precedenza, i deepfake video possono sostituire il viso di una persona con quello di un’altra, facendo sembrare che qualcuno stia dicendo o facendo qualcosa che in realtà non ha mai fatto. Le applicazioni più insidiose finora realizzate sono quelle pornografiche che hanno preso di mira anche la cantante Taylor Swift. Tale tecnologia può essere utilizzata per realizzare audio falsi che imitano la voce di una persona, rendendo possibile far dire a qualcuno cose che non ha mai detto.

Appare quantomeno strano per uno studioso che ha legato il suo nome alla comprensione di come funziona la mente umana, ha elaborato un’influente teoria (eliminativa) della coscienza e si è occupato per decenni di modelli artificiali della cognizione ridurre la propria attenzione su un aspetto dell’intelligenza artificiale che non sembra centrale, nel momento in cui vi è un’esplosine di applicazioni grazie alle capacità generative testuali (largamente impreviste) di programmi come ChatGPT, Claude e Gemini. Eppure, forse proprio per la sua capacità di attivare “pompe di pensiero” al di là dei luoghi comuni e delle piste di ricerca più battute e per il suo approccio naturalistico all’essere umano, Dennett ha colto il punto di debolezza e, potenzialmente, di rottura del rapporto tra noi e le macchine sempre più performanti.

In realtà, i software non hanno scopi né prendono decisioni, se non quelle che affidiamo loro, anche se, in linea con l’idea dennettiana dell’atteggiamento intenzionale, per spiegare e prevedere il comportamento di vari tipi di entità (dagli animali all’IA) è utile attribuire loro credenze, desideri e intenzioni, come se fossero agenti razionali, cosa anche i non esperti fanno comunemente, antropomorfizzando cani e gatti o strumenti complessi. Il problema è l’uso che noi possiamo fare degli algoritmi generativi. Se sfruttiamo le immense potenzialità di creare contenuti non reali (chiunque può farlo facilmente e in breve tempo) e consideriamo il fatto che la nostra vita si svolge sempre di più sulla Rete, dalla quale traiamo la maggior parte delle nostre informazioni, ecco che il rischio diventa concretissimo.

Dennett ha sottolineato come le notizie false e i deepfake generati dall’IA possano erodere la fiducia pubblica nei media e in ogni fonte di conoscenza. Di più: a essere distrutte saranno la testimonianza e le prove come mezzi di avvicinarsi alla verità. La capacità di creare messaggi altamente convincenti ma falsi può portare a una diffusa disinformazione, rendendo difficile per le persone orientarsi tra vero e verosimile, finendo con l’essere o totali creduloni o scettici radicali (in entrambi i casi manipolati e non più in sintonia con il proprio ambiente). In questo senso, l’intelligenza artificiale può essere utilizzata per manipolare l’opinione pubblica diffondendo narrazioni artefatte e pura propaganda venata però di realismo. Ciò può avere un impatto fortemente negativo per i processi democratici, poiché interi processi elettorali potrebbero essere influenzati da notizie e dati fabbricati ad arte.

I prodotti sempre più sofisticati generati dall’IA rendono difficile verificarne l’autenticità. I metodi tradizionali di fact-checking e verifica tecnica faticano a tenere il passo con i progressi degli algoritmi nel creare narrazioni in cui elementi di fatto vengono mescolati maliziosamente con elementi inventati ad hoc per distrarre, disorientare o convincere il pubblico. La diffusione di informazioni false tramite l’IA, secondo Dennett, può minare il tessuto sociale stesso, inducendo panico, seminando discordia e fomentando divisioni all’interno delle comunità, anche a motivo della rapidità di circolazione senza filtri né forme di contrasto.

Foto di Eddie Kopp su Unsplash

Di fronte a questo scenario cupo, lo studioso che ha insegnato per anni alla Tufts University di Boston e ha in Coscienza. Cos’è, L’idea pericolosa di Darwin e Dai batteri a Bach le sue opere più importanti e durature, aveva lanciato nell’ultimo periodo un avviso di pericolo molto chiaro, espresso in molte interviste e culminato in un articolo pubblicato sulla rivista Atlantic (https://www.theatlantic.com/technology/archive/2023/05/problem-counterfeit-people/674075/). Nel testo, il filosofo americano si spinge a parlare di “atti di vandalismo morale” e invoca pene severe per le società tecnologiche che consentono di fare ciò. Vale la pena di leggere l’inizio dell’articolo, perché ci restituisce la lucidità, la capacità argomentativa, il rigore e la vis polemica mai gratuita che caratterizzano le opere del pensatore, sempre orientato a unire la riflessione intellettuale con i dati scientifici e l’osservazione sperimentale.

“Il denaro – scrive Dennett – esiste da diverse migliaia di anni, e fin dall’inizio la contraffazione è stata riconosciuta come un crimine molto grave, un crimine che in molti casi ha condotto alla pena capitale perché mina la fiducia su cui si basa la società. Oggi, per la prima volta nella storia, grazie all’intelligenza artificiale, è possibile per chiunque costruire persone contraffatte che possono passare per reali in molti dei nuovi ambienti digitali che abbiamo realizzato. Queste persone contraffatte sono le creazioni più pericolose nella storia umana, capaci di distruggere non solo le economie, ma la libertà stessa. Prima che sia troppo tardi (potrebbe già essere troppo tardi), dobbiamo proibire sia la creazione di persone contraffatte sia la “diffusione” di persone contraffatte. Le pene per entrambi i reati dovrebbero essere estremamente severe, dato che è in gioco la nostra civiltà”.

Solo con una maggiore consapevolezza del pericolo, tecniche di svelamento del falso più efficaci e norme severe per i trasgressori potremo evitare la slavina che ci minaccia. L’ultima lezione di Daniel Dennett è stata questa. Probabilmente, ci conviene prenderla molto sul serio.

Immagine: Foto di Daniel Dennett da Wikimedia Commons

Esplora altri articoli su questi temi