麥肯錫預測,到2030年,支持人工智能的數據中心容量將以每年33%的速度增長。國際能源署警告稱,到2020年,數據中心的電力需求可能會增加一倍以上。美國電力研究院(EPRI)最近的研究揭示了一個更為顯著的變化:機架密度將從8-40千瓦躍升至130-600千瓦,預計到2028年每個機架的功率將達到1.2兆瓦。
2025年9月5日
圖形處理單元 (GPU) 集群的耗電量如今堪比一座小城市,有些集群僅僅訓練一個模型就耗電100兆瓦時。人工智能的蓬勃發展迫使數據中心面臨傳統系統無法應對的需求。
麥肯錫預測,到2030年,支持人工智能的數據中心容量將以每年33%的速度增長。國際能源署警告稱,到2020年,數據中心的電力需求可能會翻一番以上。美國電力研究院 (EPRI) 最近的研究揭示了一個更為顯著的變化:機架密度從8-40千瓦躍升至130-600千瓦,預計到2028年每機架的耗電量將達到1.2兆瓦。正如NVIDIA的黃仁勛所說:“如果你的電力有限,你的收入也會受到限制。”
理解人工智能工廠:訓練 vs 推理
并非所有人工智能設施都生而平等。人工智能訓練數據中心,真正的“模型創建人工智能工廠”,運行著持續的高功耗工作負載,將散熱系統推向極限。這些設施創建了驅動 AI 應用的大型語言模型 (LLM)。
AI推理數據中心則服務于不同的目的。這些“AI 部署工廠”處理實時用戶交互——想想您使用 Copilot 或 ChatGPT 時的情況。它們面臨著不可預測的使用高峰,同時保持全球用戶群的即時響應時間。
行業需要能夠實時適應變化的 AI 負載的動態熱管理系統。
地理位置也很重要。行業趨勢表明,推理設施的全球分布不均衡,亞太地區等地區與成熟市場相比可能服務不足,導致用戶的性能差異。這種不平衡正在推動全球快速擴張,隨著 AI 代幣價格下降,行業專家預測,需要推理能力更靠近用戶的新應用將激增。這需要能夠適應不同氣候和條件的適應性設施。對于數據中心而言,寒冷氣候和溫暖氣候之間的差異可能巨大——寒冷的國家可以利用自然冷卻,而溫暖的國家可能需要大規模的冷卻系統。
真正的挑戰:熱量和多變性
AI 工作負載不僅消耗更多電力,還會帶來全新的運營挑戰。與負載可預測的傳統應用不同,人工智能會產生突發的功率峰值和強烈的熱量爆發,這可能會使傳統的冷卻系統不堪重負。現代人工智能芯片運行時溫度更高、密度更高,這帶來了嚴峻的熱管理挑戰,迫使冷卻系統達到極限。
這不僅僅是為了管理更高的基準功耗,而是為了構建能夠實時適應工作負載在幾毫秒內從中等強度過渡到最大強度的系統。為穩定狀態操作而設計的傳統冷卻方法根本無法適應這種變化。
可持續發展的風險同樣很高。麥肯錫的研究表明,人工智能基礎設施的增長速度可能超過脫碳努力的速度,從而危及凈零目標。國際能源署預測,到 2030 年,針對人工智能優化的數據中心所消耗的電力可能比日本目前全國的用電量還要多。
前進的道路:人工智能的自適應基礎設施
該行業需要能夠實時適應變化的人工智能負載的動態熱管理系統。這意味著將智能控制、預測分析和自適應冷卻技術嵌入到每個運營層。成功需要能夠跨地域一致運行、適應當地條件且不影響性能的解決方案。
江森自控數據中心解決方案全球產品組合總監 Davin S. Sandhu 表示:“該行業非常了解如何在低密度和中密度場景下散熱。但隨著機架密度不斷增加,您就必須開始討論和溝通您是否擁有合適的熱管理解決方案。”
“這時,擁有一個了解這些不同的熱管理挑戰和系統需求的合作伙伴就變得至關重要,這樣您不僅能在當下取得成功,還能為未來做好準備。”
企業需要既了解技術復雜性又了解戰略要務的合作伙伴。人工智能革命正在提高數據中心生態系統中每個人的風險,但它也為更智能、更可持續、更高效的基礎設施開辟了非凡的可能性。
那些能夠憑借合適的技術專長和戰略合作伙伴解決這些復雜性的公司,才能脫穎而出。問題不在于我們是否準備好了,而在于我們是否會選擇能夠適應、擴展并滿足未來性能要求的解決方案。
準備好讓您的人工智能基礎設施面向未來了嗎?與江森自控合作,共同應對人工智能就緒數據中心的復雜性,從而保持效率和可持續性。