L’IA è ovunque: dai chatbot ai deepfake i contenuti generati online dall’IA sono sempre più diffusi ed è sempre più facile, veloce ed economico generare testi, immagini, video ed altro ancora, ma la diffusione pervasiva della IA porta con sé anche una mole crescente di abusi, perché a essere potenziata è anche la disinformazione. In particolare, le IA generative e gli algoritmi predittivi stanno “sovraccaricando” problemi sociali già presenti: truffe, molestie online, polarizzazioni radicali, discriminazioni sistematiche. Addestrati su dati che riflettono i pregiudizi dei loro creatori, i modelli di IA, infatti, rafforzano gli stereotipi e portano a conseguenze che vanno ben oltre la sfera digitale. È il tema della mostra internazionale Supercharged by AI: synthetic and out of control, ospitata presso la Biblioteca di Economia e Management dell’Università di Torino fino all’11 luglio e visitabile su prenotazione.
Perché Supercharged?
“Supercharged by AI” è un’azione creativa presentata da The Glass Room, un progetto premiato di Tactical Tech che aumenta la consapevolezza tramite esplorazioni giocose e provocatorie del nostro rapporto con la tecnologia (www.theglassroom.org/supercharged-by-ai) e da DensityDesign Lab del Politecnico di Milano, in collaborazione con l’International Federation of Library Associations and Institutions (IFLA). La circolazione della mostra in Italia è stata curata dall’Osservatorio per la Information Literacy dell’Associazione Italiana Biblioteche.
La mostra affronta il tema dell’impatto che l’intelligenza artificiale ha sulle modalità con le quali le informazioni vengono prodotte, distribuite e percepite. “Supercharged by AI” contiene risorse coinvolgenti – tra cui pannelli visivi, libri, un poster interattivo e una guida dettagliata all’allestimento – che rendono tangibili le complesse questioni legate all’IA. L’allestimento è completato dal Data Detox Kit, una guida, che fornisce consigli pratici su cosa fare quando, nelle nostre vite online, ci troviamo faccia a faccia con questi fenomeni, per stimolare un approccio informato e consapevole a questa tecnologia in rapida evoluzione.

La mostra è articolata in quattro ambiti:
- Molestie digitali amplificate dall’IA. Deepfake pornografici generati da modelli AI, chatbot manipolati per inviare messaggi offensivi o sessualmente espliciti, insieme a una moderazione dei contenuti automatizzata spesso inefficace o cieca ai contesti locali, con scarsa protezione per le vittime, le casistiche di molestie amplificate dall’IA sono numerose: le IA che apprendono da dati online possono, infatti, replicare comportamenti tossici, se non adeguatamente filtrate.
- Truffe più sofisticate grazie all’IA. L’IA generativa è usata per creare audio/video tanto credibili quanto falsi. Il phishing è potenziato anche da LLM che generano e-mail perfette e convincenti, profilando gli utenti e personalizzando le truffe ad arte con l’ausilio del deep learning, aumentando così l’efficacia dei raggiri.
- Polarizzazione e radicalizzazione. Per massimizzare il coinvolgimento appositi algoritmi di raccomandazione (social network, YouTube, TikTok) privilegiano contenuti estremi. Le IA imparano e rafforzano camere dell’eco, escludendo contenuti moderati o dissenzienti. Ne deriva la produzione di una disinformazione, soprattutto politica, su larga scala.
- Bias sistemici. Dati di addestramento squilibrati portano a bias razziali, di genere e culturali, mentre decisioni automatizzate discriminatorie (es. nella selezione del personale, nella concessione di prestiti, nella sorveglianza predittiva) favoriscono comportano mancanza di trasparenza (black box) e accountability nei sistemi IA.
Scopo della mostra è fornire degli esempi concreti e tangibili dei quattro ambiti di esposizione ai rischi legati all’uso dell’intelligenza artificiale, stimolando la consapevolezza della necessità di un approccio multilivello, che coinvolga utenti, aziende, istituzioni e sviluppatori, per impostare efficaci strategie di Data detox.
Perché in biblioteca?
Il ruolo delle biblioteche nel contrastare il sovraccarico dell’intelligenza artificiale (IA) è cruciale e può rivelarsi fondamentale per favorire un uso consapevole e responsabile delle tecnologie emergenti. Le biblioteche, infatti, hanno una lunga tradizione nella conservazione accurata e sistematica delle informazioni: in un’epoca in cui l’IA sta accelerando la produzione di contenuti digitali, da custodi della conoscenza, esse garantiscono che le risorse educative e scientifiche siano correttamente archiviate, facilmente accessibili e verificate. È importante che l’accesso alle informazioni sia equo e inclusivo e riduca il divario digitale, dando a tutte e tutti la possibilità di comprendere e interagire con le IA in modo critico: la democratizzazione dell’accesso all’informazione è infatti un modo per contrastare il monopolio delle grandi tecnologie e la distorsione della realtà che può derivare da un uso incontrollato delle IA.
Le biblioteche sono, inoltre, tra gli spazi più accessibili per l’alfabetizzazione digitale. Offrendo corsi, workshop e risorse formative sull’uso critico delle tecnologie, possono aiutare le persone a comprendere come funzionano le IA, come distinguere tra informazioni affidabili e disinformazione, come acquisire metodologie per l’analisi critica delle fonti e la verifica dei dati, contribuendo a limitare il sovraccarico informativo e la diffusione di notizie false o distorte. Questo tipo di educazione – che include la promozione della consapevolezza riguardo le implicazioni etiche delle tecnologie automatizzate (la sorveglianza, la discriminazione algoritmica e la privacy dei dati in primis) – aiuta le e gli utenti a diventare cittadine e cittadini digitali più consapevoli, responsabili e preparati a confrontarsi con le sfide legate alla tecnologia, riducendo il rischio di essere sopraffatti dalla quantità di dati e notizie circolanti. In questo senso, le biblioteche offrono spazi critici e riflessivi di incontro e discussione dove le persone possono riflettere sulle implicazioni etiche, sociali e politiche delle tecnologie come l’IA.

Lungi dal bandire l’uso dell’IA, le biblioteche possono infine coglierne il potenziale positivo nel campo dell’informazione e della cultura, adottando l’IA al loro interno per migliorare i servizi e l’efficienza: sistemi di raccomandazione, chatbot per il supporto agli utenti o strumenti di analisi dei dati per personalizzare l’esperienza di ricerca sono alcuni esempi di come l’IA possa essere utilizzata positivamente, in maniera consapevole e trasparente.
Conclusioni
Sebbene offra numerosi vantaggi, l’IA presenta anche rischi significativi. È pertanto essenziale sviluppare regolamentazioni adeguate, promuovere l’educazione digitale e implementare tecnologie atte a mitigare questi rischi e garantire un uso etico e responsabile dell’IA. Paradossalmente, più l’IA viene impiegata per moderare o combattere gli abusi, più essa stessa diventa un vettore di stress etico e sociale. Chi controlla l’IA che controlla i dati?
La difesa contro i rischi dell’IA non può poggiare su un solo attore. È necessario educare l’utenza, per renderla meno vulnerabile, responsabilizzare le aziende tecnologiche, affinché creino strumenti sicuri e trasparenti, implementare normative robuste, che tutelino le libertà civili senza soffocare l’innovazione. Emergono infatti problemi di governance, etica e regolamentazione internazionale che rendono urgente un approccio più consapevole e trasparente allo sviluppo e alla distribuzione delle tecnologie IA. Si afferma, inoltre, la necessità di una maggiore collaborazione tra aziende tech, governi e società civile, con l’obiettivo non di bloccare l’innovazione, ma di costruire un’IA realmente al servizio dell’umanità (fondamentali in tal senso i riferimenti a AI Now Institute, EFF, UNESCO AI Ethics guidelines). Le biblioteche possono assumere un ruolo attivo e strategico nella gestione dell’impatto dell’IA, fornendo risorse per l’alfabetizzazione digitale, l’inclusione sociale, la riflessione etica e la verifica delle informazioni. In un mondo sovraccarico di IA e dati, esse contrastano il caos informativo e tecnologico, nella misura in cui offrono alle persone gli strumenti per un empowerment personale che ha effetti sulla collettività.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

