• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

La multa UE a Google: riflessioni a margine

Google - Legge

La recente sanzione comminata dall’Unione Europea a Google per abuso di posizione dominante segna un passaggio paradigmatico nella relazione tra diritto, economia e tecnologia.

Si tratta, in buona sostanza, di un vero e proprio banco di prova per il diritto contemporaneo; chiamato a regolare i rapporti di potere che si instaurano nei mercati digitali, dove i tradizionali equilibri contrattuali e concorrenziali appaiono profondamente alterati dall’intermediazione algoritmica.

Il diritto civile di fronte ai giganti digitali

Dal punto di vista del diritto civile, la condotta di Google, sanzionata ai sensi dell’art. 102 TFUE, si traduce in una violazione dei principi generali di buona fede e correttezza che, radicati nel codice civile (art. 1375 c.c.), trovano oggi applicazione anche nei rapporti asimmetrici di matrice sovranazionale.

Gli editori e gli inserzionisti, pur formalmente liberi di contrattare, si trovano di fatto vincolati a condizioni unilaterali, sintomatiche di quella “dipendenza economica” che l’ordinamento italiano riconosce e contrasta a partire dalla legge n. 192 del 1998.

In tale prospettiva, la repressione dell’abuso di posizione dominante si traduce in un’estensione della tutela contro le clausole vessatorie nei contratti di massa, ovvero un tentativo di restituire equilibrio a rapporti giuridici nei quali il contraente debole non dispone di alternative reali.

Diritto d’autore e sfruttamento dei contenuti

A questo si aggiunga il profilo del diritto d’autore.

La legge n. 633 del 1941 riconosce all’autore diritti patrimoniali esclusivi sulle proprie opere e configura l’utilizzazione non autorizzata come violazione suscettibile di tutela risarcitoria e inibitoria. Google, sfruttando i contenuti digitali prodotti da terzi come materia prima dei propri servizi di ricerca e pubblicità, si sarebbe indirettamente appropriata del loro valore economico, senza corrispondere agli autori ed editori una remunerazione proporzionata. In questo senso, la condotta integra non solo un abuso concorrenziale, ma anche un fenomeno di sfruttamento delle opere dell’ingegno, che pone in discussione la medesima sostenibilità economica della produzione culturale.

Simili problematiche si intrecciano, a loro volta, con le nuove frontiere inaugurate dal Regolamento europeo sull’intelligenza artificiale (AI Act), entrato in vigore nel 2024. Esso introduce un approccio basato sul rischio, classificando i sistemi di IA in base al loro potenziale impatto sui diritti fondamentali e imponendo obblighi di trasparenza, valutazione preventiva e controllo. È significativo che l’AI Act menzioni espressamente la tutela della dignità, della non discriminazione e della proprietà intellettuale come ambiti da salvaguardare. Ne consegue che gli algoritmi utilizzati dalle piattaforme digitali non sono più zone franche del diritto, ma vengono ricondotti ad un regime che si può definire di responsabilità preventiva: la logica della buona fede e della correttezza contrattuale si proietta dunque in una dimensione tecnologica, imponendo alle imprese non solo di rispettare i diritti altrui ex post, ma di progettare ex ante sistemi compatibili con essi.

Responsabilità penale e governance algoritmica

In ambito penalistico, il tema è più sfumato ma non meno rilevante. L’ordinamento conosce già figure come l’aggiotaggio (art. 501 c.p.) o le pratiche fraudolente di mercato, che tutelano l’integrità dell’economia. Tuttavia, la difficoltà di imputare condotte algoritmiche a singoli individui evidenzia i limiti di un diritto penale ancora costruito attorno al paradigma dell’autore-persona fisica. Con riferimento a ciò, il D.lgs. 231 del 2001 sulla responsabilità degli enti diviene cruciale: se l’impresa trae vantaggio dall’uso illecito o scorretto di sistemi digitali e non ha predisposto adeguati modelli organizzativi di prevenzione, l’illecito può essere ricondotto a una responsabilità collettiva. È qui che l’AI Act e il sistema 231 possono interagire: l’uno imponendo standard di governance algoritmica, l’altro attribuendo conseguenze giuridiche all’omesso rispetto di tali standard. Ne emerge un modello multilivello di responsabilità, capace di coniugare diritto amministrativo, civile e penale.

La dimensione geopolitica della tecnologia

La reazione del presidente Donald Trump, che ha paventato ritorsioni commerciali contro l’Europa, dimostra però che questi profili non sono solo giuridici, ma geopolitici. La domanda sottesa è antica: chi ha il potere di fissare le regole? Gli Stati, le organizzazioni sovranazionali, o i colossi privati che, attraverso gli algoritmi, determinano le condizioni stesse di accesso all’informazione?

Un dato emerge con chiarezza: la tecnologia non può sfuggire al controllo giuridico. Come ricordava Radbruch, un ordinamento che non tutela la giustizia cessa di essere diritto per divenire mero arbitrio: e, in tale caso, la giustizia non è solo equità contrattuale, ma pluralismo, libertà e dignità nel nuovo spazio digitale.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi