Il 2024 è stato un anno ricco di innovazioni basate su IA, segnato dal lancio di nuovi prodotti e applicazioni. All’interno di questo galoppante panorama, non mancano i flop che hanno messo in luce alcuni limiti di queste tecnologie.
Tra i problemi emerge la diffusione di contenuti di bassa qualità, detti AI slop, che rischiano di compromettere la qualità dell’addestramento dei futuri modelli di IA. Eventi inesistenti promossi con immagini generate e deepfake non consensuali, come quelli della cantante Taylor Swift, hanno evidenziato i rischi etici e sociali. In particolare, Grok, l’IA di Elon Musk, rende possibile creare praticamente qualunque tipo di scenario.
Lo scarso successo di assistenti hardware come AI Pin e Rabbit R1 ha mostrato che non tutte le innovazioni rispondono a delle reali esigenze degli utenti. Infine, i riassunti automatici di notizie hanno attratto critiche riguardanti errori e malfunzionamenti, poiché i modelli di IA non si sono dimostrati in grado di distinguere le notizie verificate da post ironici presenti su piattaforme come Reddit.
Questi problemi non solo minano l’affidabilità dei sistemi di intelligenza artificiale, ma rischiano anche di alimentare la disinformazione e compromettere la fiducia del pubblico nei confronti della stampa e delle informazioni disponibili online.
Leggi l’articolo completo “The biggest AI flops of 2024” su MIT Technology Review
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

