• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Regolazione – L’alfabeto della retorica dell’IA: parte 5

AI Regulation

L’approccio regolatorio dell’UE sull’IA: una critica alla retorica che ignora il contesto giuridico degli Stati Uniti

Negli ultimi mesi, il dibattito sull’approccio dell’Unione Europea alla regolamentazione dell’intelligenza artificiale si è intensificato, con molte critiche rivolte a normative come l’AI Act. Secondo alcune posizioni, questo tipo di regolamentazione sarebbe troppo rigido e rischierebbe di soffocare l’innovazione, lasciando l’Europa indietro rispetto a Stati Uniti e Cina. Tuttavia, questa narrazione spesso si rivela retorica e non tiene conto della complessità del quadro normativo, carattere che emerge in particolare quando si confronta l’approccio europeo con il modello statunitense.

La strumentalizzazione del “Rapporto Draghi”

Un punto di partenza significativo in questo dibattito è rappresentato dal Rapporto sul futuro della competitività europea, presentato da Mario Draghi il 17 settembre 2024. Questo documento ha posto l’accento sulle sfide che l’Europa deve affrontare per mantenere il proprio ruolo economico globale, sottolineando l’importanza di investire in tecnologie avanzate come l’intelligenza artificiale. A differenza di quanto pretendono alcune interpretazioni distorte, Draghi non ha mai sostenuto che la regolamentazione europea sull’IA ostacoli l’innovazione. Al contrario, ha enfatizzato la necessità di armonizzare le normative e creare un mercato unico digitale, favorendo così la crescita delle imprese tecnologiche. Nonostante ciò, molti critici, hanno utilizzato le sue osservazioni per rafforzare la propria tesi secondo cui l’Europa sarebbe troppo restrittiva.

Le critiche all’AI Act

Le critiche di questi attori industriali si concentrano principalmente sulla presunta rigidità dell’AI Act e sulla frammentazione normativa tra gli Stati membri dell’UE, che renderebbe difficile per le aziende competere a livello globale. Alcuni leader aziendali, come Mark Zuckerberg di Meta e Daniel Ek di Spotify, hanno dichiarato che le regole attuali potrebbero soffocare lo sviluppo di tecnologie open source, fondamentali per l’innovazione. Altri, come i rappresentanti di Google, hanno evidenziato che l’incertezza normativa ostacola gli investimenti e il lancio di nuovi prodotti in Europa. In particolare, sottolineano che la complessità delle normative potrebbe portare le aziende a spostare le proprie attività di ricerca e sviluppo verso mercati meno regolamentati. A tal proposito, il documento “EU Needs AI” firmato da alcune delle più importanti aziende e organizzazioni tecnologiche europee, tra cui Meta, Spotify, Siemens, Bosch, Philips, oltre a vari esperti accademici e ricercatori, ha raccolto una serie di proposte per riformare l’approccio europeo alla regolamentazione, sottolineando l’importanza di un equilibrio tra innovazione e tutela dei diritti fondamentali, evidenziando come una maggiore collaborazione tra pubblico e privato potrebbe mitigare i rischi di frammentazione normativa.

Le dispute legali sull’IA negli Stati Uniti

Un confronto utile per comprendere meglio il dibattito è quello con il modello statunitense, che spesso viene citato come esempio di approccio più permissivo. In realtà, il sistema normativo degli Stati Uniti non è privo di regole, ma segue un modello giuridico diverso, basato sulla common law. Questo sistema affida ai tribunali il compito di stabilire precedenti giuridici, spesso in assenza di regolamentazione preventiva. Se da un lato questo approccio offre flessibilità, dall’altro genera una notevole incertezza per le imprese, che non possono prevedere con precisione l’esito delle controversie legali.

Negli Stati Uniti, diverse aziende tecnologiche, tra cui OpenAI, Meta, Microsoft e Anthropic, sono coinvolte in cause legali per presunte violazioni del diritto d’autore. Scrittori come Sarah Silverman e George R.R. Martin sostengono che le loro opere siano state utilizzate senza autorizzazione per addestrare modelli di intelligenza artificiale generativa. Anche istituzioni come il New York Times e una coalizione di media canadesi hanno intentato azioni legali simili. Inoltre, News Corp di Rupert Murdoch ha citato in giudizio la startup Perplexity AI per l’uso non autorizzato dei suoi contenuti. Queste controversie evidenziano le crescenti tensioni tra creatori di contenuti e aziende tecnologiche riguardo all’uso di materiali protetti da copyright nell’addestramento di modelli di intelligenza artificiale.

Le azioni legali degli organi statali sull’IA

Altri casi riguardano le indagini da parte della Federal Trade Commission  (l’autorità statunitense responsabile della protezione dei consumatori e della prevenzione delle pratiche commerciali scorrette o anticoncorrenziali) su presunti abusi nella raccolta dei dati personali, nell’utilizzo ingannevole dell’IA, le azioni legali avviate dal Dipartimento di Giustizia (DOJ) contro Google per presunte pratiche monopolistiche e violazioni antitrust nel mercato della pubblicità digitale e della ricerca su web. Queste azioni includono accuse di abuso di posizione dominante per favorire i propri servizi e ostacolare la concorrenza, segnando una svolta importante negli sforzi normativi statunitensi contro i giganti tecnologici. Queste controversie, seppur inevitabili in un sistema di common law, creano incertezza per le aziende, che devono operare senza regole chiare e affrontare il rischio di costosi procedimenti legali.

Non dimentichiamo inoltre che il 30 ottobre 2023, il Presidente Joe Biden ha firmato un ordine esecutivo intitolato “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”. Questo rappresenta la prima iniziativa significativa negli Stati Uniti per regolamentare l’IA. L’ordine esecutivo indirizza le agenzie governative a intraprendere azioni mirate per garantire che il paese sia all’avanguardia nello sviluppo di tecnologie IA sicure e affidabili.

La legge da cui è nato il web

Un parallelo interessante può essere fatto con quanto accaduto durante la nascita del web. Negli anni ’90, i tribunali statunitensi emettevano sentenze divergenti sulla responsabilità dei provider di servizi internet rispetto ai contenuti generati dagli utenti. La frammentazione giuridica creava confusione e ostacolava lo sviluppo dell’industria. Per risolvere il problema, il Congresso approvò in maniera bipartisan la Section 230 del Communication Decency Act, che garantiva immunità legale ai provider per i contenuti pubblicati dagli utenti. Questa norma ha rappresentato un momento decisivo per il web moderno, creando un ambiente legale stabile che ha permesso la nascita delle grandi piattaforme web e dei social come li conosciamo oggi.

SOX: la norma più costosa della storia quando i buoi erano già scappati dalla stalla

Allo stesso modo, l’esperienza del Sarbanes-Oxley Act (SOX) del 2002 dimostra l’importanza di una regolamentazione tempestiva. Questo atto normativo, introdotto dopo gli scandali finanziari di Enron e WorldCom, ha imposto rigide regole di compliance finanziaria per ripristinare la fiducia nei mercati. Tuttavia, il SOX è arrivato troppo tardi, dopo che i crac aziendali avevano già causato danni enormi. Enron e WorldCom avevano manipolato i bilanci per gonfiare i profitti, causando perdite miliardarie agli investitori, migliaia di posti di lavoro persi e minando la fiducia nell’intero sistema economico. Sebbene il SOX sia stato necessario, è stato anche l’atto normativo più costoso della storia per le imprese americane, dimostrando che una regolamentazione tardiva può essere più onerosa e meno efficace rispetto a un approccio preventivo.

Anche il resto del mondo regola l’IA

La regolamentazione dell’intelligenza artificiale è diventata una priorità globale non solo per la EU, con diversi paesi che adottano approcci distinti per bilanciare l’innovazione tecnologica con la sicurezza e l’etica. La Cina ha intrapreso un percorso deciso verso la regolamentazione dell’IA, con l’obiettivo di bilanciare lo sviluppo tecnologico con il controllo e la sicurezza, focalizzandosi su aspetti come la trasparenza degli algoritmi, la sicurezza nazionale e la protezione dei dati personali. Nel 2024, il governo cinese ha introdotto una serie di regole e linee guida per standardizzare e controllare lo sviluppo e l’uso dell’IA nel paese. Queste misure mirano a promuovere l’innovazione, garantendo al contempo la sicurezza e la stabilità sociale. Anche il Brasile sta compiendo passi significativi verso la regolamentazione dell’intelligenza artificiale, riconoscendo l’importanza di stabilire un quadro normativo che promuova l’innovazione tecnologica garantendo al contempo la tutela dei diritti fondamentali. La proposta prevede anche un sistema di classificazione basato sul rischio dei sistemi di IA e introduce disposizioni sulla responsabilità civile per danni causati dall’IA.

Le sandbox regolative dell’AI Act

Non dimentichiamo, infine, le sandbox regolative previste dall’AI Act dell’Unione Europea, ambienti controllati in cui le aziende possono sviluppare, testare e validare sistemi di intelligenza artificiale prima della loro immissione sul mercato. Questi spazi sperimentali, istituiti dalle autorità competenti degli Stati membri, mirano a promuovere l’innovazione tecnologica garantendo al contempo la conformità alle normative vigenti. Le sandbox offrono alle imprese l’opportunità di sperimentare nuove soluzioni sotto la supervisione dei regolatori, riducendo i rischi normativi e facilitando l’adozione di tecnologie IA in modo sicuro ed etico.

L’uso retorico della contrapposizione fra innovazione e regolazione

Tutti questi esempi evidenziano che la critica alla regolamentazione europea sull’IA come freno all’innovazione è in parte un argomento retorico. La lezione del passato mostra che regole chiare e armonizzate non solo non ostacolano l’innovazione, ma creano le basi per un progresso sostenibile e responsabile, e che questo è accaduto e accade anche negli Stati Uniti, paese da cui partono le maggiori critiche – molto interessate – alla EU. L’Europa, con l’AI Act, non sta frenando l’innovazione, ma cercando di costruire un ecosistema digitale che unisca crescita tecnologica, tutela dei diritti fondamentali e fiducia dei consumatori. Un equilibrio che potrebbe diventare un modello globale.

Esplora altri articoli su questi temi