Q:您不接受液冷的担忧点是什么?摘选回复1在地铁这样的特殊场景,我现在不建议大规模用液冷设备。主要原因有三:安全风险太大: 液冷系统万一漏液,在地铁这种带电又密闭的环境里,可能引发短路、火灾甚至人员安全问题,清理起来也特别麻烦,后果不堪设想。维护太复杂: 液冷比风冷精密得多,需要更专业的维护人员和工具,出了问题也更难快速排查和修复,这不符合我们地铁高可靠、快恢复的要求。环境不适应: 地铁里有振动、温湿度变化和灰尘,这些都可能让液冷系统的管道和接头出现问题,增加泄漏或故障风险。摘选回复2普通数据中心的负载不是太高,因此设备散热量并不是很高,通过空调风冷方式,已经可以解决散热问题,无需花费高成本来部署液冷方案。液冷方案更适合高负载高密集度的数据中心使用,是立体化工程,对设计的完整度要求很高,需要从基础设计时就考虑液冷,在设备采购时,也需要专门选型,施工要求同样比较高,这导致实际使用中,局限性太大,成本还非常高,因此一般情况下不做相关考虑。除此以外其后续的维保难度也较大,整体系统的抗腐蚀能力,寿命也有待考量。摘选回复31.成本太高,此成本为改造成本,我们三楼的机房是前年刚做的,当时考虑过使用液冷的方案,但是综合建设成本远远大于风冷2.领导不放心,或者说领导不太愿意接受这种形式,她担心后续万一出现漏液的情况很麻烦,无法独资维护,维护成本高,万一出了故障相比风冷维修起来麻烦3.机房的条件也不够,我们的机房当时建设用于承载市政务云,后续准备建设成市智算中心机房,不过环境还是不太打标,加上管理起来并不严格,各个下游供应商要经常进来调试维护,无法做成液冷式的设备。摘选回复4【1】、液冷与通用计算机柜混用楼层不统一/美观:目前行业内以及我服务过的智能制造和金融行业都会面临着通用计算机柜和AI机柜混建、时间差的建设顺序,例如智能制造行业传统的燃油车数据中心通用计算只需保证智慧工厂、产能正常运转的算力要求便可。随着新能源汽车/车联网技术的快速迭代高算力要求的小区域AI-DC应运而生,那么机房混建几乎是行业的常态。通用计算机柜的42U/47U标准化机柜,以及密闭冷通道/热通道的整齐规划,而随着浸没式和喷淋式液冷技术的引入,不统一尺寸高度、宽度的建设在同一个楼层面积的DC中闲得略为突兀,让数据中心另外的参观属性变得形同虚设,之前的数据中心装修风格也会随着液冷AI-DC机柜的引入而破坏整体统一美观性;【2】、后期增建AI模块配套冷源施工难度大、造价高:如上述【1】后期增建AI模块服务器机柜与之配套的AI基建及其他系统单元都会相对全新建DC难度加大。包括不限于AI液冷机柜配套的液冷换热模块CDM、水平/垂直分液单元、内外循环水单元、室外储冷罐/闭式冷却塔、专属冷冻液等都与传统数据中心机房通用计算机柜的风冷/水冷行级送风解决方案有着明显的差异,因此后期增建的AI-DC基建配套单元需要在现有风冷铜管或水冷环网的基础上增设多一套制冷系统,配电系统,施工难度的剧增,以及条件限制带来的AI基建的成本陡升等问题;【3】、冷板式液冷配套原厂服务器施工/定制周期长:例我服务的某迪汽车股份有限公司随着新能源汽车的爆发式增长,每条产线每年需要迭代的车型需要超过4次,与之带来的柔性制造和高算力研发支撑也水涨船高。冷板式液冷AI-DC增建也迫在眉睫,快交付周期和标准化产品的数据中心成为当下支撑柔性制造的重要指标,但冷板式液冷解决方案相对于浸没式、喷淋式液冷解决方案的高性价比也带来较大的服务器厂家的高定制性周期,以及高要求施工标准,包括不限于精准部件级CPU、内存、显卡管道定制,相比于传统机架式X86/ARM服务器的采购周期倍数增加,综合考虑有些市场快速反应制造产线数据中心不得不采用多台空调+传统机架式服务器的风冷方案;【4】、冷板式液冷服务器厂家品牌强捆绑性:由于目前AI-DC带来冷板式液冷服务器的红利,许多服务器厂家为了整体服务器的稳定性、以及性能的极致发挥,液冷水平分液单元和部件级精准制冷管道都是原厂自行定制或派单生产,导致专业级液冷数字能源供应商无法提供整体液冷端到端解决方案。如此分工方式导致的服务器厂家品牌强耦合性较强,在未来进行服务器品牌的切换会十分困难,冷板式液冷服务器厂家品牌强捆绑性也是当下数据中心建设规划的最大痛点之一;【5】、单机柜算力功耗可能逐渐降低趋势:大模型背景下都无可厚非的单显卡高功率,一台GPU/NPU算力服务器八张显卡动则5-7Kw,从而也导致数据中心单机柜随随便便20Kw/Rack的超高功耗,让数字能源基础设施空调(特别是风冷空调)一对一、一对二的无奈设计,高昂的L1层基础设施建设让AI大模型单位算力成本居高不下,商业模式推广较为困难。但随着的2nm光刻机投产、更高精度EDA芯片设计软件的商用版本测试,相信未来GPU/NPU功耗演进方向会逐步减低,液冷数据中心的设计可能会随着功能的降低进而重新回归水冷/风冷/间接蒸发等低成本传统L1层数据中心规划建设路线;【6】、液冷机柜建设气密性和后期维护成本:无论是浸没式液冷方案还是冷板式液冷方案,管道气密性CDU或浸没式机柜Tank都考验施工工艺的品控,同时也极大的考验类似这种私人企业的后期维护能力和工艺。对于自用民营企业而言,例如某企业维护自家的数据中心并没有达到运营级别数据中心的规范和标准,因此日常高性能服务的维护和运维过程会导致Tank的气密性收到一定影响,而此时无法及时发现的运维故障导致后期工质液冷液补充、泄漏等情况时有发生,同时由于民营企业数字能源运维能力局限性,导致此类气密性运维过分依赖原厂维护,无形相比于传统液冷/风冷数据中心运维成本增加。因此气密性维护成本也是工质选择重要考虑节点;【7】、国内推理算法和应用无法发挥GPU显卡高利用率:随着ChatGPT人工智能算法的发展,各行各业都希望通过人工智能高科技技术降低人工成本和提升生产效率,但往往很多行业和企业缺乏充分调研或遴选错误的AI大模型,导致购置的大量GPU推理服务器空载率偏高,实际行业业务和国内推理算法无法发挥GPU显卡高负载,最终导致无需配套的大功率L1数据中心基础设施建设。摘选回复5空间利用率冲突现有数据中心层高与承重设计基于风冷架构,部署浸没式液冷需配置液体容器,导致实际可用机柜空间减少20%-30%,且单机柜承重需提升至1.5吨/平方米(远超传统0.8吨标准)。混合架构运维复杂度冷板式液冷仅改造CPU/GPU等局部组件(占服务器数量90%),但电源、内存仍需风冷辅助,形成""液冷+风冷""双系统并行,故障诊断链路延长40%"液冷设备安装涉及水路铺设、密封处理等复杂工程,可能破坏机房原有布局,增加漏水、短路等安全风险;且该设备运行依赖专业维护团队与特殊维护流程,现有运维人员技术能力与维护体系能否有效支撑存在不确定性。Q:您接受液冷的原因是什么?摘选回复11、功率密度硬门槛。单机柜 ≥ 30 kW 才触发液冷选项;低于此值继续风冷或冷板过渡。2、运维硬门槛。必须支持“前维护”+“5 分钟热插拔”:任何冷板、快接头或浸没腔体改造不得延长 MTTR。漏液检测响应 ≤ 5 秒,并具备单柜级自动隔离阀;无此功能直接否决。3、合规与风险硬门槛。冷却介质须通过 RoHS/REACH 认证,且现场配备 110 % 容积的泄漏收集槽。消防方案:NFPA-75 合规,气体灭火 + 液冷联动切断,缺一不可。4、弹性窗口。先选 1–2 个 42U 机柜做 6 个月 PoC,监测 PUE、故障率、维护时长。PoC 期间指标:PUE ≤ 1.15、可用性 ≥ 99.9 %、维护时长增幅 ≤ 10 %。全部达标后才批量复制。摘选回复21、冷源为高温自然冷却占比较高,使用更节能,运营费用更低。2、机柜空间资源利用率高。摘选回复3目前企业内部有高算力的需求,比如在阿胶熬制环节,AI视觉质检系统,需实时分析驴皮熬制状态如挂旗、黏度等指标,搭载GPU的服务器集群算力密度高,单台GPU服务器功耗可达4000W+,传统风冷容易导致局部过热、算力衰减。液冷的散热效率比风冷高,可以确保AI模型推理延迟稳定在50ms以内;2、可以提高设备的可靠性。我们的生产MES系统、供应链管理系统需7×24小时不间断运行,而传统风冷的风扇故障、滤网堵塞等问题,曾导致2024年两次短暂宕机(累计时长1.5小时),影响批次生产。3、计划引入deepseek大模型平台训练阿胶工艺优化模型(需10PFlops算力),传统风冷无法支撑高密度算力集群。摘选回复41、PUE1.2以下环境要求;2、超算高密度散热要求,功率单柜已超100KW。摘选回复51 .更好应对高热密度的散热需求2.有助于降低pue值,节能减排3.能节省电力,提高散热效率4.增长了ai的算力需求5.这是市场需求的趋势所在,顺应市场需求!摘选回复61、高效散热能力:液冷相比风冷能够更有效地传递热量,快速带走大量热量,尤其适合高功率密度的电子设备。2、低噪音:由于高效的冷却效果,往往可以通过降低或取消风扇来减少噪音,提供安静的工作环境。3、节能降耗:液冷系统的能效比风冷系统更高,可以减少电力消耗,降低PUE(电源使用效率),符合绿色数据中心和可持续发展的要求。4、稳定性与可靠性:液冷系统不受环境温度变化影响,能够在各种环境中稳定工作,并且避免了因风冷散热带来的灰尘积累和高温导致的设备过热问题。5、延长设备寿命:更低的运行温度有助于提高电子元器件的使用寿命,降低故障率。摘选回复71、降低能耗与能源使用效率:传统风冷存在缺陷,数据中心40%+能耗用于散热(PUE≈1.5),空调系统占大头;液冷效果中冷板式液冷PUE可降至1.05-1.1,浸没式液冷甚至可达1.02;废热利用中60℃以上的液冷出水可用于区域供暖。2、空间与噪音优化:液冷无需庞大空调系统,数据中心空间利用率提升30%,空间节省;消除风扇噪音(风冷机房达80分贝),液冷机房可低于50分贝,适合边缘计算部署(如医院、实验室)。