Google ha pubblicato un nuovo studio che mette in guardia sui pericoli dell’IA generativa, sottolineando come questa tecnologia possa “distorcere la comprensione collettiva della realtà socio-politica o del consenso scientifico”. Il documento, intitolato “Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data”, analizza circa 200 episodi di abuso di IA generativa riportati dai media e studi di ricerca tra gennaio 2023 e marzo 2024.
L’analisi di Google evidenzia che quasi il 90% dei casi di abuso coinvolge l’utilizzo di strumenti di IA, come la creazione di cloni vocali o immagini non consensuali di celebrità, piuttosto che attacchi diretti ai modelli stessi. Questo utilizzo improprio può avere effetti devastanti sulla percezione del pubblico, rendendo difficile distinguere tra realtà e finzione e alimentando lo scetticismo verso le informazioni online.
Il documento sottolinea la necessità di un approccio collaborativo per mitigare questi rischi, coinvolgendo politici, ricercatori, leader del settore e la società civile. Tuttavia, la stessa Google, che sta sviluppando rapidamente strumenti di IA generativa, è parte integrante del problema. L’azienda non ha rilasciato commenti in risposta alla richiesta di chiarimenti.
Leggi l’articolo completo: Google Says AI Could Break Reality su 404media.co.
Foto di charlesdeluvio su Unsplash.

