• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Rischio collasso per le IA: l’autoaddestramento danneggia la loro qualità

Ritratto pixelato.

L’IA sta affrontando una sfida interna non indifferente, ovvero la possibilità che l’output generato dalle IA attuali possa compromettere le prestazioni delle IA future. 

Con l’enorme quantità di contenuti prodotti ogni giorno (si stima che OpenAI generi circa 100 miliardi di parole quotidianamente), molti di questi dati finiscono online, dove possono essere riutilizzati per addestrare nuovi modelli di IA. Tuttavia, questo ciclo di feedback involontario rischia di portare a un “collasso del modello” in cui le IA, addestrate sui propri output, iniziano a produrre risultati meno accurati e meno vari. Questo fatto può essere paragonato alla qualità delle immagini risultanti da screenshot, che sono sempre inferiore rispetto all’originale (uno screenshot di uno screenshot sarà ancora peggio, e così via). Studi recenti dimostrano che questa degenerazione può verificarsi sia nel testo che nelle immagini, portando a distorsioni visive e perdita di diversità. Il problema è aggravato dalla difficoltà nel rilevare questi contenuti generati dall’IA e dalla mancanza di nuovi dati reali di alta qualità. 

Per evitare questi rischi, le aziende potrebbero pensare di investire in dati umani autentici e sviluppare metodi avanzati per identificare e mitigare gli effetti dei dati sintetici. Se ciò non verrà fatto, la qualità delle IA potrebbe deteriorarsi e il loro margine di crescita e di miglioramento potrebbe compromettersi.

Leggi l’articolo completo: When A.I.’s Output Is a Threat to A.I. Itself su nytimes.com.

Immagine generata tramite DALL-E 3.

Esplora altri articoli su questi temi