• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’IA generativa e la crisi energetica tra nuove tecnologie e vecchie infrastrutture

Paesaggio siccità.

L’esplosione dell’IA generativa ha portato alla proliferazione di nuovi data center, sollevando preoccupazioni sulla capacità della rete elettrica statunitense di gestire l’aumento della domanda di energia.

Dipti Vachani, responsabile dell’automotive presso ARM, ha evidenziato la necessità di un approccio diverso per affrontare questo problema energetico, proponendo dei processori a basso consumo sempre più adottati da giganti tecnologici come Google, Microsoft, Oracle e Amazon per ridurre il consumo di energia nei data center. Anche Nvidia ha sviluppato un chip AI e consuma 25 volte meno energia rispetto ai modelli precedenti. Secondo un rapporto di Goldman Sachs, una singola query su ChatGPT consuma quasi dieci volte l’energia di una ricerca su Google e generare un’immagine AI, invece, può richiedere l’equivalente energetico di una ricerca effettuata su cellulare. Inoltre, l’addestramento di LLM produce una quantità di CO2 paragonabile a quella prodotte da cinque auto a benzina nel corso della loro intera vita. La crescente richiesta di energia ha anch’essa contribuito ad aumentato le emissioni di gas serra, come riportato da Google e Microsoft, i cui data center hanno visto un incremento delle emissioni rispettivamente del 50% e del 30% negli ultimi anni. Con oltre 8.000 data center nel mondo e una domanda in crescita del 15-20% annuo fino al 2030, il consumo energetico dei data center potrebbe rappresentare il 16% del totale degli Stati Uniti.
Le aziende, infatti, stanno esplorando soluzioni alternative per la generazione di energia in loco, con investimenti in startup solari, di fissione e fusione nucleare. Microsoft ha firmato un accordo per acquistare elettricità da fusione a partire dal 2028, mentre Google sta collaborando con una startup geotermica.

Come ormai noto, i data center richiedono anche enormi quantità di acqua per il raffreddamento. Secondo Shaolei Ren, entro il 2027, i data center AI potrebbero richiedere più acqua di metà del Regno Unito. Soluzioni come il raffreddamento evaporativo e il raffreddamento diretto sul chip sono in fase di implementazione per ridurre l’impatto idrico.

Leggi l’articolo completo: Generative AI requires massive amounts of power and water, and the aging U.S. grid can’t handle the load su cnbc.com

Foto di Lazarus Marson su Unsplash.

Esplora altri articoli su questi temi