L’industria dell’IA, oggi, si trova in una situazione simile a quella dell’industria farmaceutica americana alla fine del XIX secolo, caratterizzata da una mancanza di regolamentazione e dall’abbondanza di promesse non verificate.
Come allora, con la figura emblematica di Clark Stanley e il suo “Snake Oil Liniment”, oggi molte aziende tecnologiche promuovono i loro prodotti di IA come soluzioni miracolose senza fornire prove concrete dei benefici promessi e trascurando i potenziali rischi. La creazione della FDA e l’introduzione del Food and Drugs Act del 1906, infatti, hanno trasformato un panorama di prodotti pericolosi e non testati in un mercato regolamentato che richiede prove di sicurezza ed efficacia. La presenza di un’agenzia di regolamentazione per l’IA, capace di garantire che i nuovi sistemi vengano testati e monitorati per sicurezza ed efficacia prima di essere immessi sul mercato, sembra essere sempre più necessaria. Infatti, in assenza di tali regolamentazioni, i rischi sociali legati all’IA, dalla disinformazione alla concentrazione di potere, fino ai rischi esistenziali, potrebbero superare i potenziali benefici.
Invece, sembrerebbe che le aziende di IA siano principalmente coinvolte in una corsa frenetica per migliorare le capacità dell’IA, privilegiando la velocità rispetto alla sicurezza.
Nel maggio 2024, diversi membri del team di sicurezza di OpenAI si sono dimessi per preoccupazioni riguardanti appunto la sicurezza, criticando la dirigenza per aver messo al primo posto i profitti.
Leggi l’articolo completo: We Need An FDA For Artificial Intelligence su noemamag.com.
Foto di Markus Winkler su Pexels.

