Le normative che regolamentano i rischi dei sistemi di intelligenza artificiale stanno diventando più definite. L’UE, il Canada, gli Stati Uniti, e molti altri paesi stanno introducendo leggi che prevedono un ruolo per le verifiche delle IA. Le aziende di revisione stanno rispondendo alla crescente domanda di servizi di audit delle IA, offrendo formazione e accreditamento per gli auditor e conducendo audit etici e di dati delle IA.
Tuttavia, l’industria dell’audit delle IA affronta tre sfide cruciali. In primo luogo, non è ancora chiaro quale sarà l’oggetto (o gli oggetti) dell’audit, ossia l’esatto oggetto dell’audit. In secondo luogo, nonostante gli sforzi per creare formazione e credenziali per i revisori di IA, l’offerta di revisori di IA capaci è in ritardo. In terzo luogo, a meno che i mercati non dispongano di normative chiare in materia di revisione, le revisioni dell’IA potrebbero subire una corsa al ribasso nella qualità della revisione. Per affrontare queste sfide, sono necessarie azioni coordinate da parte dei politici, dell’industria e della società civile. Queste includono la definizione di obiettivi di audit chiari, l’investimento nella formazione degli auditor e la stabilizzazione dei requisiti minimi di formazione e accreditamento. Una soluzione potrebbe essere la creazione di standard di audit delle IA, consentendo la flessibilità nell’applicazione, ma garantendo la qualità e l’integrità degli audit.
Inoltre, l’industria potrebbe sviluppare ulteriori programmi di certificazione per gli auditor delle IA. Questo potrebbe mitigare la carenza di auditor qualificati e promuovere la competenza nel settore.
Leggi l’articolo completo: AI Audit Objects, Credentialing, and the Race-to-the-Bottom: Three AI Auditing Challenges and A Path Forward su techpolicy.press.

Foto di Markus Spiske su Unsplash.

