Di Brian Kennedy (Belden), Matt Roberts (OptiCool).
La crescente diffusione dei carichi di lavoro AI sta riportando una parte significativa dell’elaborazione all’interno di data center enterprise e ambienti di colocation.
Molte di queste infrastrutture, tuttavia, sono state progettate prima dell’adozione dell’intelligenza artificiale e non dispongono di profili energetici e sistemi di raffreddamento adeguati per gestire densità elevate.
Con la maturazione dell’AI, le organizzazioni devono stabilire dove eseguire questi workload ad alta intensità.
Se inizialmente il cloud rappresentava la scelta naturale, emergono oggi limiti legati a latenza, costi e controllo operativo.
Di conseguenza, una parte dei carichi torna verso infrastrutture locali, pur in presenza di vincoli tecnici rilevanti.
Tra i fattori decisionali principali emergono tre elementi.
Il primo riguarda la latenza: molte applicazioni AI richiedono tempi di risposta rapidi e costanti, come il rilevamento frodi, la gestione intelligente degli edifici, la personalizzazione in tempo reale e le operazioni su campus connessi.
In questi casi, l’elaborazione remota introduce ritardi non compatibili con le esigenze operative.
Portare l’AI più vicino alla fonte dei dati consente di mantenere prestazioni e qualità del servizio.
Il secondo elemento riguarda i costi.
Cluster GPU ad alta densità operativi in continuo risultano onerosi in ambienti cloud.
Le organizzazioni tendono quindi a bilanciare i carichi tra hyperscale e infrastrutture proprietarie, migliorando la prevedibilità dei costi e la pianificazione delle capacità.
Il terzo fattore è legato alla natura dei dati.
Dataset sensibili, utilizzati per training e inferenza, spesso non possono essere trasferiti verso ambienti esterni per motivi normativi o di policy.
L’esecuzione locale consente maggiore controllo, semplifica la compliance e riduce la complessità operativa.
L’integrazione dell’AI nei data center esistenti introduce criticità rilevanti.
Le infrastrutture tradizionali non sono progettate per supportare rack con assorbimenti energetici che possono superare di più volte quelli previsti originariamente.
Gestire carichi da 20 a 40 kW per rack richiede soluzioni di raffreddamento avanzate, poiché i sistemi legacy non riescono a mantenere condizioni operative stabili senza inefficienze o hotspot.
Per affrontare questi limiti, i data center devono evolvere verso modelli più flessibili.
Le soluzioni devono supportare densità elevate, convivere con sistemi esistenti, integrarsi con ambienti multi-vendor e consentire implementazioni modulari senza interventi strutturali estesi.
La scalabilità per blocchi e l’integrazione con infrastrutture già presenti diventano requisiti fondamentali.
In questo contesto, il raffreddamento a livello di rack emerge come approccio chiave.
Con l’aumento della densità, diventa inefficiente gestire il calore a livello di sala.
Spostare il punto di dissipazione direttamente sul rack consente una gestione più precisa ed efficace.
Gli scambiatori di calore posteriori intercettano il calore alla fonte, evitando che venga disperso nell’ambiente.
Questa soluzione è particolarmente rilevante nei progetti di retrofit, poiché può essere integrata in infrastrutture esistenti con impatto minimo sull’operatività.
La collaborazione tra Belden e OptiCool si inserisce in questo scenario, proponendo soluzioni integrate a livello di rack per supportare workload AI ad alta densità.
L’integrazione tra rack e sistemi di raffreddamento consente di portare capacità di dissipazione direttamente nel punto critico, migliorando affidabilità e scalabilità.
La tecnologia di scambio termico posteriore sviluppata da OptiCool utilizza refrigeranti a due fasi e ventole a velocità variabile per rimuovere fino a 120 kW per rack prima che il calore entri nello spazio del data center.
Il calore viene poi trasferito a unità esterne, riducendo il carico sui sistemi di raffreddamento tradizionali e migliorando l’efficienza energetica complessiva.
L’approccio integrato include anche cablaggio ad alta velocità e sistemi di distribuzione dell’energia, consentendo operazioni affidabili anche in ambienti ibridi IT/OT.
Queste soluzioni vengono fornite come pacchetti completi, riducendo la complessità di progettazione e accelerando i tempi di implementazione.
L’evoluzione verso infrastrutture AI-ready nei data center esistenti si basa quindi su un equilibrio tra prossimità del dato, controllo operativo e capacità di gestione termica.
Le architetture a raffreddamento distribuito rappresentano un elemento chiave per sostenere la crescita dei carichi AI senza dover ricorrere a nuove costruzioni.
Belden analizza il ritorno dei workload AI nei data center enterprise e le implicazioni su energia, latenza e gestione dei dati.
Le soluzioni di raffreddamento a livello rack emergono come risposta alla crescente densità dei cluster GPU.
L’integrazione tra Belden e OptiCool introduce infrastrutture modulari per data center AI-ready.
#datacenter, #AIinfrastructure, #rackcooling, #liquidcooling, #GPUcomputing, #edgecomputing, #colocation, #ITinfrastructure, #mediainfrastructure
INFO: https://www.belden.com/