• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Gli abusi di IA generativa alterano la percezione del pubblico

Persona al cellulare.

Google ha pubblicato un nuovo studio che mette in guardia sui pericoli dell’IA generativa, sottolineando come questa tecnologia possa “distorcere la comprensione collettiva della realtà socio-politica o del consenso scientifico”. Il documento, intitolato “Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data”, analizza circa 200 episodi di abuso di IA generativa riportati dai media e studi di ricerca tra gennaio 2023 e marzo 2024.

L’analisi di Google evidenzia che quasi il 90% dei casi di abuso coinvolge l’utilizzo di strumenti di IA, come la creazione di cloni vocali o immagini non consensuali di celebrità, piuttosto che attacchi diretti ai modelli stessi. Questo utilizzo improprio può avere effetti devastanti sulla percezione del pubblico, rendendo difficile distinguere tra realtà e finzione e alimentando lo scetticismo verso le informazioni online.

Il documento sottolinea la necessità di un approccio collaborativo per mitigare questi rischi, coinvolgendo politici, ricercatori, leader del settore e la società civile. Tuttavia, la stessa Google, che sta sviluppando rapidamente strumenti di IA generativa, è parte integrante del problema. L’azienda non ha rilasciato commenti in risposta alla richiesta di chiarimenti.

Leggi l’articolo completo: Google Says AI Could Break Reality su 404media.co.

Foto di charlesdeluvio su Unsplash.

Esplora altri articoli su questi temi