• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’intelligenza artificiale e la comunicazione politica. Pochi angeli e molti demoni

Politici

La comunicazione politica tramite intelligenza artificiale è qui per restare e diventerà sempre più importante nelle elezioni future e il suo impatto sui sentimenti e sulle decisioni degli elettori potrebbe essere enorme. L’intelligenza artificiale (IA) può essere utilizzata durante le campagne elettorali o nella comunicazione politica per migliorare le performance dei messaggi e per potenziare la consapevolezza degli elettori in vista di una migliore partecipazione elettorale. Finora però quello che si è visto però è per lo più un suo uso scorretto e manipolativo nei confronti di utenti ignari che ha prodotto pesanti effetti disinformativi. Per garantire l’uso etico dell’IA in politica, le normative dovrebbero concentrarsi su trasparenza, responsabilità, privacy, consenso ed equità. Il recente AI Act dell’Unione Europea va in questa direzione e parte dal riconoscere proprio che il futuro dell’IA in politica è una risorsa concludendo che questa risorsa debba essere gestita con attenzione per mantenere l’integrità del processo democratico. Di certo non basta perché la velocità con cui i recenti sistemi di IA si diffondono, la concentrazione del potere dei privati e la scarsa capacità di controllo pubblico rendono il tema spinoso e controverso, ma resta pur sempre un inizio.

Uno degli ambiti delicati in cui l’IA sta producendo effetti è la comunicazione politica e la sua influenza nei comportamenti di voto. L’intelligenza artificiale sta avendo un ruolo sempre più significativo e opaco nella recente attualità politica. Alcuni esempi eclatanti illuminano aspetti di problematicità crescente.

Nel 2024, un rapporto di OpenAI, della cui trasparenza e natura ci sarebbe da discutere, ha rivelato che l’azienda israeliana STOIC ha tentato di interferire nelle elezioni del Congresso Nazionale Indiano tramite l’uso di intelligenza artificiale generativa per creare contenuti critici verso il partito al governo, il Bharatiya Janata Party. L’operazione di interferenza è stata scoperta e interrotta in meno di 24 ore dall’inizio delle attività, ma la rapidità e la sofisticazione degli strumenti utilizzati hanno sollevato preoccupazioni significative riguardo alla potenzialità manipolatorie delle IA rispetto ai risultati elettorali. Ad aggravare il quadro vi è stato anche il fatto che Meta ha approvato una serie di annunci politici manipolati dall’IA proprio durante le elezioni in India che diffondevano disinformazione incitando alla violenza religiosa. Un rapporto di The Guardian ha sollevato molte preoccupazioni proprio sulle politiche di Meta riguardo gli annunci politici, sottolineando le lacune, più o meno consapevoli, nelle pratiche di riconoscimento del contenuto dannoso e la mancanza di un piano efficace per affrontare il discorso d’odio sulla piattaforma.

A pochi giorni dalle elezioni europee, sempre un’indagine condotta da OpenAI ha attiva un altro campanello d’allarme denunciando preoccupazione su interferenze di attori terzi nel processo elettorale. Anche l’osservatorio indipendente sulla disinformazione finanziato dalla Commissione europea EDMO ha registrato che da gennaio in poi vi è stato un significativo trend crescente per quanto riguarda la disinformazione e le interferenze “artificiali” all’interno dello spazio UE. Nel mese di aprile l’aumento di disinformazione da parte di soggetti esterni rispetto alle elezioni europee è stato dell’11 per cento rispetto al totale della disinformazione riferita all’UE da quando nel 2023 è iniziato il monitoraggio.

Un altro caso che mette in luce l’uso malevolo che si può fare dell’IA è nostrano del 2024 sempre durante le elezioni europee che ha visto Matteo Salvini utilizzare l’intelligenza artificiale generativa per creare manifesti elettorali e contenuti sui social media. Questi materiali, spesso polemici e rivolti contro migranti e comunità LGBTQ+, sono stati diffusi su diverse piattaforme digitali come X, Facebook e Instagram, senza indicare chiaramente che fossero generati da IA, anche se poteva essere intuito. I manifesti elettorali creati da Salvini hanno utilizzato immagini e testi generati dall’IA per promuovere il suo messaggio politico “Less Europe, More Italy” e per criticare duramente le politiche migratorie dell’Unione Europea. A far il voluto scalpore è stato soprattutto un post che mostrava un’immagine di un uomo incinto generata dall’IA come attacco nei confronti della comunità LGBTQ+ e della cultura queer. Il post ha generato un picco di interazioni, ottenendo oltre 2.800 menzioni, 2.600 like e 612.000 visualizzazioni ed ha messo in luce quale potenziale discorsivo può avere l’IA nella comunicazione politica.

Però non è tutto negativo, la tecnologia è neutra ciò che fa la differenza e il suo utilizzo. Così vale anche per l’IA, in alcuni casi può diventare uno strumento espansivo e di contropotere. Questo è quello che è successo sempre durante la stagione elettorale del 2024 sempre in India dove Senthil Nayagam, il fondatore di Muonium, una start-up indiana ha utilizzato l’intelligenza artificiale generativa per produrre video di alta qualità utilizzando l’immagine e la voce politici famosi ormai scomparsi da tempo per veicolare i messaggi della campagna. Tra questi un ex primo ministro dello stato meridionale indiano del Tamil Nadu, scomparso nel 2018, e altri personaggi noti come Indira Gandhi, Rajiv Gandhi, Narasimha Rao e Atal Bihari Vajpayee. “Stiamo usando l’intelligenza artificiale, ma lo facciamo con buone intenzioni”, ha commentato Nayagam e “non vogliamo abusare della tecnologia o creare deepfake”.

Nel vicino Pakistan, invece, l’anno scorso l’ex primo ministro Imran Khan ha utilizzato l’intelligenza artificiale per fare campagna elettorale dal carcere in cui era stato rinchiuso dagli oppositori proprio per ostacolare la rielezione del suo partito. I suoi seguaci hanno sfruttato l’IA generativa per produrre messaggi di sostegno utilizzando l’immagine e la voce del leader. Questi contenuti sono stati diffusi attraverso diversi canali di social media e piattaforme di messaggistica, sostituendo di fatto la propaganda elettorale, tra cui i comizi vietati del partito al Governo, con appuntamenti online, passaparola sui social e su Whatsapp. Ciò ha consentito a Khan di rimanere una figura influente nella campagna elettorale e la sua assenza fisica non ha impedito al suo partito di vincere le elezioni.

L’uso improprio dell’IA è un tema che preoccupa gli stessi sviluppatori i quali sono interessati a rimanere attori accreditati sulla scena pubblica tanto che nel maggio del 2024, Google per prevenire critiche e contestazioni ha annunciato di limitare il suo chatbot Gemini basato sull’IA nel fornire risposte sulle elezioni americane così da evitare possibili utilizzi “allucinati” delle informazioni prodotte. Adesso, quando Gemini viene interrogato su elezioni come quelle presidenziali negli Stati Uniti, candidamente ammette di essere ancora in fase di apprendimento e rimanda al “vecchio” motore di ricerca Google. Sempre l’azienda ha annunciato restrizioni simili anche in altri contesti elettorali “caldi” oltre a quello degli Stati Uniti come quelli dell’Europa, del Sudafrica e dell’India. A partire da novembre 2023 Google ha inoltre annunciato l’introduzione di una nuova policy che obbliga gli annunci politici di rivelare esplicitamente se contengono contenuti sintetici creati dall’intelligenza artificiale in modo che gli spettatori possano distinguere tra contenuti reali e generati artificialmente. Questa politica si applicherà a immagini, video e audio utilizzati negli annunci politici su Google e YouTube, ma quello che ci sta dietro non è soltanto il timore che l’IA possa venire utilizzata per creare contenuti falsi o fuorvianti, specialmente in vista delle elezioni presidenziali degli Stati Uniti del 2024. In primo piano vi è anche la preoccupazione del colosso High tech di perdere credito all’interno del panorama globale che è resta comunque fatto di relazioni pubbliche ed istituzionali.

In estrema sintesi, l’uso dell’IA nelle elezioni presenta sia rischi che vantaggi. Tra i rischi principali, appare evidente la possibilità di manipolazione dell’opinione pubblica tramite fake news e campagne di disinformazione che accrescono la polarizzazione politica e la crescita di “bolle” informative e autoreferenziali rendendo più difficile la gestione dei problemi.

D’altro canto, l’IA offre anche ampie opportunità per migliorare la democrazia. Può facilitare un maggiore accesso alle informazioni e incentivare una partecipazione più informata degli elettori e delle elettrici. Ad esempio, i chatbot possono rispondere a domande su politiche e candidati e candidate, mentre gli algoritmi di analisi dei dati possono identificare e correggere rapidamente le informazioni false. Inoltre, strumenti di monitoraggio basati sull’IA possono essere usati per garantire maggiore trasparenza e verificabilità. Ad esempio, possono rilevare attività sospette, come voti duplicati o manipolazioni nei seggi elettorali, contribuendo a garantire l’integrità del processo elettorale.

Il problema dunque non è la macchina, ma resta sempre chi la conduce!

Esplora altri articoli su questi temi