AI热浪加速数据中心冷却市场规模扩张
- 时间:
- 浏览:197
在可持续性要求和AI算力功耗不断上升的背景下,数据中心冷却市场正展现出强劲增长势能和巨大发展前景。
根据Omdia发布的数据显示,2023年数据中心冷却市场规模已飙升至76.7亿美元,远超预期,这一增长势头预计将持续至2028年,年均复合增长率(CAGR)将达到18.4%,届时市场规模将达168.7亿美元。Omdia称,这一增长浪潮在很大程度上受到AI驱动的需求和高密度基础设施创新的推动,标志着该行业步入重要转折点。
当前,数据中心散热技术主要有以空气为介质进行散热的风冷技术和以液体为介质的液冷技术。其中风冷技术是目前普遍应用的散热技术,但在AI集群、高性能计算(HPC)集群等散热密度较高的场景下,液冷技术优势尽显,推动数据中心液冷时代加速到来。
AI“热”浪下数据中心加速液冷
近年来,随着AI、云计算、大数据等数字技术不断发展,数据中心数量和规模加速扩张,但与之而来的是能源消耗急剧上升,使得数据中心成为全球最大的能源消耗者。在能耗压力和可持续发展目标下,数据中心制冷迫在眉睫,数据中心冷却市场由此也呈高速增长态势。
当前,生成式AI引领的技术变革带动下,全球AI算力需求高涨,驱动数据中心朝高密度化发展,带动数据中心计算芯片功耗持续上升,根据芯片研究公司SemiAnalysis的数据,2023年至2026年,全球数据中心能耗将从49GW增至96GW,三年CAGR超 25%,其中AI算力能耗激增,到2026年将超40GW,占数据中心总能耗超40%,成为数据中心能耗增长的主要推手。
随着AI算力芯片功耗攀升,传统风冷散热方式的制冷也迎来挑战。根据开源证券测算,在大模型训练和推理下的高算力需求下,主流GPU的TDP(热设计功耗)值已增长至700W,已加速逼近风冷散热上限(800W左右)。为应对AI算力功耗增长,确保数据中心算力稳定高效运行,液冷技术逐渐成为AI算力“降温”的必然选择。
相较而言,液冷散热方式具有能耗低、高散热、成本低、高空间利用率、易部署以及余热回收易实现等优势。山西证券指出,液冷技术是解决“算力热”与“散热焦虑”问题的最优解。