L’Ai e i consumi da record, la grande sfida energetica dell’innovazione
“L'articolo analizza l'aumento esponenziale dei consumi energetici legati all'intelligenza artificiale, evidenziando le sfide per la sostenibilità e la sicurezza energetica. Si sottolinea la necessità di modelli più efficienti e l'insufficienza delle attuali fonti rinnovabili.”
OGNI GIORNO ChatGPT elabora oltre 2,5 miliardi di domande, ognuna delle quali richiede 0,3–0,34 Wh: nell’arco di 24 ore significa circa 850 MWh, pari a 300 GWh l’anno, ossia i consumi elettrici di 100 mila famiglie. Numeri enormi, e molte richieste sono superflue: rigenerare più volte la stessa risposta o chiedere all’Ai informazioni banali trovabili su Google per un decimo dell’energia (0,03 Wh) genera uno spreco collaterale che, moltiplicato per milioni di utenti, fa saltare il banco.
Cinque anni fa c’era chi prevedeva che l’intelligenza artificiale avrebbe aiutato a consumare meno. Oggi i dati dicono altro. Nel 2024 i data center dedicati all’Ai hanno assorbito 415 TWh, l’1,5% del fabbisogno globale. E il trend preoccupa: per l’Agenzia Internazionale dell’Energia si arriverà a 945 TWh nel 2030 e addirittura 1.720 TWh nel 2035. In soli dieci anni un aumento del 400%, come se sulla bilancia energetica mondiale, ogni anno, salisse un Paese come il Giappone.
Il settore corre ai ripari con modelli efficienti, hardware specializzati e sistemi di raffreddamento avanzati. In Germania, ad esempio, il Green IT Cube di Darmstadt usa un innovativo raffreddamento ad acqua che taglia drasti…
L'Ia agentica spinge la crescita, la sfida delle imprese italiane
Intelligenza artificiale e servizi IT alle aziende: potenzialità e vantaggi
Il problema dell’intelligenza artificiale non sono le macchine, ma la superficialità umana
HuffPost Italia