2025-12-12 亿万克
听说数据中心要上天了?为进一步在算力竞赛中抢占先机,各国已纷纷将视野投向太空。全球太空算力竞赛正持续升温,前有谷歌公布“太阳捕手”计划,规划建设81颗卫星集群;后有北京官宣“太空算力计划”,正式开启“天基算力”新赛道,明确将在700-800公里晨昏轨道建设千兆瓦级太空数据中心。
地面数据中心PUE政策收紧,多场景设严苛标准
就在数据中心向太空扩张的脚步加速之际,地面数据中心PUE值管控政策也在步步收紧。11月,国家标准《数据中心能效限定值及能效等级》正式实施,其中明确提出所有数据中心PUE值不得超过1.5.否则视为不合规;新建大型数据中心普遍要求PUE值≤1.25;重点区域和行业要求更为严苛,PUE值需低至1.2以下。
传统风冷技术受限,难承受超高算力需求
即便传统风冷技术能够勉强满足PUE值合规要求,面对时下爆发式增长的超高算力需求同样束手无策。如今AI服务器单台功耗就有可能超过3000W,若强行使用风冷散热,不仅会导致GPU性能大打折扣,还可能引发设备频繁宕机,无法将GPU、CPU性能发挥到极 致。
在数据中心PUE值全面收紧的当下,既想要高密度算力,又要确保PUE值不超标准,液冷技术已成为地面数据中心的“唯 一解”。
亿万克液冷技术正助力地面数据中心率先破局,让PUE值实现更低突破:
亿万克冷板式液冷:精准控温,PUE值≤1.2
其核心原理是将金属冷板直接贴附在CPU、GPU等高热元件上,通过冷却液在冷板内部循环流动实现高效吸热,就像给元件贴上“退烧贴”,达成精准散热的效果。经过实验实测,该技术PUE值可低于1.2以下,满足大部分数据中心建设要求;单机柜使用密度可提升3倍,充分支撑中等算力场景的计算需求。
亿万克浸没式液冷:全域降温,PUE值<1.05
该技术采用发热元件与冷媒直接接触的方式,冷却液直接带走热量,可实现PUE值<1.05.全方位无死角降温,最严苛的PUE值要求也难不倒它。其单机柜功率密度还可达50kW以上,能够将高功耗AI芯片的性能彻底释放,助力超高算力场景落地。
既要布局太空数据中心的未来,也不能忽视地面数据中心当下的建设。亿万克始终深耕节能技术的研究与应用,其液冷技术也将持续赋能更多数据中心,助力行业早日实现PUE值全面达标,在算力竞赛中站稳“脚跟”。