首先我们认为以下所述行业将迎来高速增长期!想象空间巨大!
记得我在上次讲这句话的时候,中航电测已经刷新历史。
但历史还在延续,下一个将刷新历史的又是谁呢?我们拭目以待!
ChatGPT的火热程度,再次把我们拉进现实中,我们知道,数据中心是算力的载体,现阶段我们不管是诺大的数字经济还是人工智能(ChatGPT),都离不开算力,都离不开数据中心。但是,不管是人工智能(ChatGPT)还是数据算力数据中心的耗电问题,却无法忽视!
数据显示,2021年全国数据中心总用电量为2166亿千瓦时,占全国总用电量的2.6%,相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。
如此恐怖的耗电量,对我们实现2030硬性指标的“双碳”目标造成了很大压力。于是乎,从国家到产业层面都在加紧升级换代,究竟如何才能将数据中心的能耗降下来。
最新的国标要求到2025年,新建大型、超大型数据中心电能利用效率(PUE)必须干到1.3以下。
所以,捣鼓数据中心的节能减排,达到强制性国标之下;出路只有两点:
1、减少主设备的功耗
2、减少散热和照明方面的功耗(主要是散热)
服务器是数据中心最主要的设备,它上面承载了各种业务服务,有CPU、内存等硬件,可以输出算力。但实际上,主设备还包括一类重要的设备-----网络设备,也就是交换机、路由器、防火墙等。目前,AI/ML(人工智能/机器学习)乃至(ChatGPT)的加速落地,再加上千行百业物联网的高速发展,使得数据中心的业务压力越来越大。
比如说最近火热的ChatGPT,只用两个月干到了一个亿的月活用户量,那两个亿,三个亿,10个亿,30个亿的用户量要怎么搞?
这个压力不仅体现在算力需求上,也体现在网络流量上。数据中心的网络接入带宽标准,从过去的10G、40G,一路提升到现在100G、200G甚至400G。
网络设备为了满足流量增长的需求,自身也就需要不断迭代升级。于是乎,更强劲的交换芯片,还有更高速率的光模块,统统开始用上。
行业领先者主营光模块的新易盛
公司400G的已在数据中心广泛使用,800G也已经量产出货了。
光模块在光通信领域,拥有重要的低位,直接决定了网络通信的带宽。早在2007年的时候,一个万兆(10Gbps)的光模块,功率才1W左右。随着40G、100G到现在的400G,800G甚至以后的1.6T光模块,功耗提升速度就像坐上了火箭,一路飙升,直逼30W。大家可要知道,一个交换机可不止一个光模块,满载的话,往往就有几十个光模块(假如48个,就是48×30=1440 W)。这里需要用到多少新易盛的光模块,可以自己测算!
接下来再看看散热。事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头。传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。于是,我们引入了液冷技术。
液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。这个节能效果,可以说是非常给力了,直接省电三分之一。
液冷的方案,一般包括两种,分别是浸没式和冷板式。
浸没式,也叫直接式,是将主设备里发热量大的元器件,全部浸入冷却液中,进行散热。
冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。现在很多DIY组装电脑,就是冷板式。
服务器采用液冷,已经是非常成熟的技术。那么,既然要上液冷,当然是服务器和网络设备一起上,会更好啊,不然还要搞两套体系。
问题来了,咱们的网络设备,能上液冷吗?说到这里,CPO就可以登场了。CPO,英文全称Co-packaged optics,共封装光学。简单说,CPO是将网络交换芯片和光引擎(光模块)进行“封装”的技术。
我们传统的连接方式,叫做Pluggable(可插拔)。光引擎是可插拔的光模块。光纤过来以后,插在光模块上,然后通过SerDes通道,送到网络交换芯片(AISC)。CPO呢,是将交换芯片和光引擎共同装配在同一个Socketed(插槽)上,形成芯片和模组的共封装。从世界巨头抱团式布局产业化的进程看,CPO是终极形态。
这是一个怎么样的概念呢?CPO的发货量将从2023年的5万件增加到2027年的450万件,以800G和1.6T CPO为主。五年复合增长率呈倍数几何级暴增!
新易盛:公司光膜块400G已广泛应用在各大数据中心,更高端的800G已实现产业化出货走在行业引领前端,且光模块已突破低功耗极限,同时布局了光电共同封装(CPO)技术,双重受益,行业需求增量大。
价值,与伟大的公司共成长;投机,有限资金博取无限想象。行业策略,个股研究与思考。
本文资料来源于公司公告,新闻,机构公开研报等,内容仅作自己研究整理,不构成投资建议。如有侵权请联系删除。
日行一善,点个在看~感激!