当前位置: 液体金属 >> 液体金属发展 >> 数据中心产业链专题研究AI散热,站上新
(报告出品方:国金证券)
一、算力密度提升叠加能耗指标要求,驱动冷却市场创新升级
1.1AI等应用带动功率密度升高,风冷达到功率上限
AI应用加速数据中心向高密化趋势演进。面对AI带来的数据量和计算量的爆发式增长,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积内的算力、存储以及传输能力,才能最大程度发挥数据中心的价值。高算力AI芯片导入将加速服务器高功率密度演进趋势。据UptimeInstitute发布的《全球数据中心调查报告》显示,年全球数据中心平均单机架功率为8.4kW/机架,相比于年的5.6kW/机架有明显的提高。其中,1-4kw占25%,5-9kw占46%,10-19kw占13%,中国目前与全球水平仍有差距。据CDCC调研,国内全行业数据中心中8kW功率密度以上的机柜占比由21年的11%提升至22年的25%,高功率机柜占比提升明显。未来,随着人工智能模型训练推理等应用增加,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8KW/柜提高到12-15KW/柜,超算、智算中心功率密度将提升至30kW以上。
大数据生成、业务模式变迁强调实时业务的重要性,导致高性能计算集群对于散热的要求提升。随着ChatGPT引爆新一轮人工智能应用的热情,海内外数据中心、云业务厂商纷纷开始推动AI基础设施建设,AI服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据,年搭载GPGPU的AI服务器年出货量占全部服务器的比重接近1%,年在ChatGPT等人工智能应用加持下,AI服务器出货量有望同比增长8%,~年出货量CAGR有望达10.8%,AI服务器用GPU,主要以英伟达H、A、A(主要出货中国)以及AMDMI、MIX系列为主,而英伟达与AMD的占比约8:2。
人工智能芯片多用传统型芯片,或用昂贵的图形处理器(GPU),或用现场可编程门阵列芯片配合中央处理器(FPGA+CPU)为主,用以在云端数据中心的深度学习训练和推理,通用/专用型AI芯片(ASIC),也就是张量处理器或特定用途集成电路(ASIC),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。
摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提升。随着IC制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提升。以主流厂商为例,Intel10nm以下制程需采均热片以解决发热问题,AMD7nm制程使用均热片,5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。芯片级散热的方式是通过热传导原理,将芯片不断产出的热能持续地传导至散热元件,热能量传递通常是在非常接近热源的散热器上进行的。以笔记本电脑为例,电子产品朝轻薄化、高性能化方向发展,晶片功能需要大幅增加,晶体管数量增多,对于散热要求提升。①电子设备CPU硅半导体不耐热,在过高温度下无法作为电子电路发挥作用。②中央处理器和集成电路向电机等发出操作命令,产生的大部分能量都转化为热量。③小型化使得能量越集中,温度越高,发热密度更高。早期笔记本散热模组使用2根热管,现在增加为4至6根,高端的产品使用均热板。
风机转速超过r/min后对热阻的效用是有限的。根据CNKI,风冷系统中,风机转速从0r/min提高到r/min,芯片散热中对流占主导,流速增加对流换热系数显著增加,风冷方式能有效改善芯片散热问题。而当风机转速超过r/min后,传热热阻下降比较平缓,转速增加只能改善与空气的导热传热,散热效果降低。芯片级液冷是未来发展趋势。服务器2U空间下,W大约是风冷解热极限;4U以上风冷可以解到-W;AI芯片TDP普遍超过W,大多使用4-8U。根据CNKI,芯片的平均热流密度将达到W/cm2,局部热点热流密度将会超过0W/cm2,传统风冷散热已经达到极限。而芯片温度的控制对于稳定持续工作尤为重要,最高温度不能超过85℃,温度过高会导致芯片损坏,在70—80℃内,单个电子元件的温度每升高10℃,系统可靠性降低50%,因此在功率提升的背景下,散热系统将向芯片级液冷升级。
风冷达到功率上限后性价比下降,液体吸热能力更强。根据《-年度中国数据中心基础设施产品市场总报告》,年我国单机柜功率在10kW以上的数据中心市场规模增速超过10%,其中30kW以上增速达31%。据预测,年全球数据中心平均功率提升至25kW。TGG认为每机柜15-25kW的功率密度作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,当前自然风冷的数据中心单机柜密度一般只支持8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降。在同样单位体积下,液体吸收热量的能力更高。因此液冷技术能够更高效地散热,以及让芯片能够更高效地工作。
1.2液冷降低能耗压力,满足数据中心能耗要求
随着相关政策的制定、建设布局政策出台,节能减排、高质量发展成为共识。作为散热厂家主要
转载请注明:http://www.aideyishus.com/lktp/6033.html