信息技术产业行业:AI+散热,站上新风口|动态焦点

来源:国金证券    2023-04-26 14:53:27


(资料图)

投资逻辑AI带动算力芯片、IDC机柜功率密度升高,液冷降低能耗压力,满足数据中心建设需求。随着AI模型训练推理等应用增加,多样化算力协同成常态,英伟达H100功率达700800W单IT机柜主流功率密度将从68KW/柜提高到1215KW/柜,超算、智算中心功率密度将提升至30kW以上。后摩尔定律时代AI芯片性能和功耗(含热设计功耗)同步大幅提升风冷芯片级散热功耗上限在800W左右风冷达到功率上限后性价比下降。液体吸热能力更强水的热导率是空气的23倍以上。多地对数据中心提出规划方案,要求新建数据中心PUE限制在1.3以下,存量数据中心PUE不高于1.4。据uptimeinstitute数据中心PUE下降趋势放缓,亟需冷板式浸没式液冷技术降低PUE和整体能耗。

芯片级散热模块价值量成倍提升,液冷系统价值量高且经济效益突出。目前芯片级散热主要以由热管、均热板和3DVC等构成的风冷散热模组为主,对应的散热功耗上限、成本差距明显,风冷对应功耗上限在700800W,传统风冷模块单机价值量是1520美金,随着功耗提升3DVC价值量翻倍水冷功耗可突破千瓦,价值量有34倍差距。制冷系统是IDC前期建设和后期运营的主要成本之一根据施耐德电气和CDCC统数据,制冷系统在数据中心CAPEX占2025%OPEX电力成本占40%。市场普遍认为液冷初始投资较高且后期维护较复杂,我们根据施耐德电气测算发现,液冷数据中心建设能够去掉冷冻水机组、减少机架和节省IDC占地面积,降低IDC前期整体建设成本同时液冷更加节能,节省电费减少运营成本。测算表明,功率密度为10kW/机架风冷和液冷数据中心的投资成本大致相等(7美元/kw)。在提升数据中心功率密度时,液冷数据中心在节省占地空间和机架数量的成本优势愈发明显,提升2倍功率密度(每机架20kW)可使初投资可降低10%提升4倍功率密度(每机架40kW)可节省14%的投资成本。制冷系统在整个前期CAPEX占比也由风冷的15%提升至液冷的30%30%,对应制冷系统价值量由0.98美元/W提升至1.83美元/W。

AIGC驱动芯片级散热模块、液冷市场总量增加和边际增速提升。当前冷板式液冷采用微通道强化换热技术具有极高的散热性能,行业成熟度最高;浸没式和喷淋式液冷实现100%液体冷却具有更优的节能效果。当前通用算力机架规模占比超过90%90%,超算、智算中心逐步从早期实验探索走向商业试点,预期规模增速将达到70%。我们测算,国内科技公司和院校推出的AI大模型训练推理会带来40亿元的液冷市场空间,随着模型参数增加、日活增加和时延降低等发展未来四年带来液冷市场60%+复合增速其中服务器芯片级散热模块保持29%复合增速。

投资建议我们认为AI大模型有望引领算力需求升级,带动高功率密度的智算和超算中心建设,加速配套设施液冷系统导入市场,未来伴随新建数据中心建设和存量数据中心改造,整体渗透率有望快速提升,同时高功耗也有望带动散热系统向芯片级升级。当前液冷行业仍处在发展早期,看好在技术产能领先布局的厂商。

考虑到竞争壁垒在于对场景定制化程度的理解、平台化能力的快速延展,我们建议从三条主线关注液冷技术的发展和投资机会:1)华为电气艾默生系的专业温控厂商:最早从事精密空调研发设计,具备多年的产业洞察,对技术研发具备前瞻性,且形成平台化的散热布局,赋能多行业应用;2)布局液冷技术的服务器厂商:冷却技术由房间级向行级甚至服务器内部芯片级延伸,能够参与液冷技术方案的服务器厂商,有望更快抓住算力升级的产业机遇,强化产品竞争力3)提供包含芯片级散热的完整解决方案的供应商:芯片作为服务器核心热量源,随着高算力、高性能、先进制程芯片功耗的提升,散热方案向服务器内部芯片级升级,芯片级散热由风冷系统向液冷升级。

推荐组合:英维克、中兴通讯、中科曙光(曙光数创)、浪潮信息、依米康、富信科技、中石科技。

风险提示人工智能发展不及预期;

液冷技术导入不及预期;市场竞争加剧风险。

标签:

  • 路线
河南新增本土无症状感染者23例
天津新增本土确诊病例10例、本土无症状感染者8例