Con l’emergere delle regolamentazioni sulla trasparenza dell’intelligenza artificiale i governi hanno l’opportunità di allinearsi su due delle principali preoccupazioni legate al suo: la similarità (o “somiglianza“) delle interazioni con l’intelligenza artificiale a quelle umane e la poca trasparenza dei sistemi IA.
Le interazioni con i sistemi IA stanno diventando sempre più simili a quelle umane, creando confusione tra gli utenti su quando stanno interagendo con un sistema di intelligenza artificiale. Inoltre, i sistemi IA sono spesso opachi, lasciando gli utenti all’oscuro su come vengono generati i risultati, una questione nota come il problema dell'”opacità”.
Nonostante ciò, le normative nazionali sulla trasparenza dell’IA differiscono notevolmente. Un’analisi comparativa di 11 regolamenti mostra che il 25% dei requisiti normativi in paesi come Argentina, Brasile, Canada e Corea del Sud riguarda la trasparenza. In Cina e nell’Unione Europea (UE) questa percentuale scende al 15%, e negli Stati Uniti è inferiore al 10%.
A livello internazionale, i Principi dell’IA dell’OCSE, adottati da 47 governi, includono un principio sulla trasparenza e spiegabilità. Tuttavia, i governi hanno introdotto requisiti normativi propri, come il watermarking, la divulgazione pubblica e i diritti all’informazione.
La divergenza normativa può frammentare il mercato globale dell’IA e aumentare i costi di conformità, specialmente per le piccole imprese. Potrebbe anche creare una falsa sensazione di sicurezza tra gli utenti, abituati a requisiti di trasparenza che variano da un paese all’altro.
Leggi qui l’intero articolo: Two AI Transparency Concerns that Governments Should Align On
Foto di Iñaki del Olmo su Unsplash

