解读浪潮信息:减少单一供应商依赖,韧性应对变化 | 看财报

解读浪潮信息:减少单一供应商依赖,韧性应对变化

4月11日晚间,浪潮信息公布2022年度财务报告。

不久前,浪潮集团被纳入美国实体清单,作为浪潮集团旗下以服务器为主营业务的浪潮信息,其股价因此受到影响。值得注意的是,浪潮信息此前也曾被芯片公司英特尔短暂断供。

浪潮信息为此也在试图回答或改善这一状况:减少对单一供应商的依赖度,强化在供应链上下游中的韧性,以在制裁风险中更好地运营下去。

一览财务关键信息

解读浪潮信息:减少单一供应商依赖,韧性应对变化

报告期内,浪潮信息实现营收695.25亿元(人民币,下同),同比增长3.70%;归属于母公司所有者的净利润20.8亿元,同比增长3.88%;经营活动产生的现金流量净额18.00亿元,同比增长121.71%。

2017-2022年,浪潮信息实现营收从254.88亿元增长到695.25亿元,同比增速从最高位的101.21%回落至3.70%,据钛媒体App计算,年复合增长率达到22.23%。

从营收构成来看,服务器及部件是浪潮信息收入的主要部分,2022年占比99.17%;从地区来看,国内收入占比86.82%,海外营收占比13.18%,过去几年这一比例尚未有太大变化。

毛利方面,服务器及部件的毛利率为11.07%,国内地区的毛利率为11.59%。

与此同时,浪潮信息前五大客户的销售金额实现223.75亿元,占年度销售总额比例为32.18%。

在经营风险中,除了市场竞争、宏观经济影响、技术创新等问题带来对需求端的影响外,浪潮信息明确指出未来可能遭遇的供应链风险。

财报指出,目前国内服务器行业原材料以进口为主,虽然目前供应相对稳定,但在目前国际贸易摩擦加剧、地缘政治越发复杂的背景下,我国服务器生产商将面临核心零部件供应风险。公司服务器产品的主要原材料包括CPU、硬盘、内存等,受行业长期所形成的供应链生态环境影响,本行业服务器生产商所使用的核心零部件的供应商集中度较高,如果核心零部件厂商发生重大变化,将对公司经营造成一定影响。

从2020年开始,浪潮信息财报中便不再披露前五名供应商的具体名称,而是用“供应商1”、“供应商2”等代替。而根据2019年披露的财报,前五大供应商中,对英特尔的采购金额达到37.53%,其次是英伟达。

经查阅,2020年-2022年期间,“供应商1”的采购金额一路下调至14.17%,显然,浪潮信息对采购比例较大的供应商在进一步降低。

持续投入的背后

研发投入是当下浪潮信息正持续强化的事情。2022年,研发费用32.3亿元,同比增长10.58%。

具体来看,算力层面,浪潮信息发布元宇宙服务器MetaEngine,为建筑、工厂、城市等场景提供建模和渲染所需的基础算力;算法层面,对AI大模型“源”进行升级,包括对话模型、问答模型、翻译模型、古文模型;数据基础设施方面,发布新一代SSD高速存储介质。

2022年,浪潮信息将“All in液冷”纳入公司发展战略,全栈布局液冷,发布全栈液冷产品,实现通用服务器、高密度服务器、整机柜服务器、AI服务器四大系列全线产品均支持冷板式液冷,并提供液冷数据中心全生命周期整体解决方案。同时还建成亚洲最大的液冷数据中心研发生产基地,推进液冷产业化。

此外,浪潮还积极参与面向AI、边缘等标准规范的建立,并牵头OAM规范、天蝎标准、边缘OTII规范、OpenRMC管理标准等;在绿色降碳方面,参与Rack&Power项目子课题,研究采用不同的液冷方式大幅降低数据中心的PUE,实现数据中心智能节能的管理。

不过值得一提的是,进入今年2月份以来,浪潮信息股价因受消息面影响,出现较大涨幅。

解读浪潮信息:减少单一供应商依赖,韧性应对变化

2月初,浪潮信息在互动平台表示,“公司在AIGC赛道已从底层计算能力、中间层大模型算法能力和上层行业应用方面进行布局和持续研发投入,未来将会持续发布AIGC的支撑产品。百度是公司重要客户。”

2月15日,浪潮信息收到深交所关注函,要求结合公司AIGC、人工智能服务器等业务相关的具体产品、应用情况、实现的收入规模、行业竞争情况、技术研发进展等,说明互动易回复表述的具体依据。对此,浪潮信息晚间披露股票交易异动公告称,“2021年9月,公司发布了中文语言大模型源1.0。但截至目前,公司源大模型及相关应用尚未产生实际收入,公司提示投资者注意公司股票二级市场交易风险,审慎决策,理性投资。”

目前大模型、AIGC技术概念持续火热,产业界的市场投入动作明显,在钛媒体看来,最直接的受益方其实是满足了AI模型训练的GPU提供商英伟达公司。而对于下游的服务器、云服务IaaS提供商而言,对大模型的投入无外乎两点因素,各家的推进路径也因而有所分化:

一是商业层面,比如对于无法支撑大量GPU购买及运维服务的AI创企而言,基于平台公司提供的大模型调用,将省去上述成本直接进入应用开发阶段,对于企业客户而言,基于大模型技术融合的应用,将带来生产力级的效率提升,而这背后每一次的调用都是对底层基础算力的消耗;二是技术层面,即AI在芯片、服务器集群设计时带来的革命性变革,无论是GPU还是未来更多的其他PU,对于算力提供方而言,算力资源的利用率越高,成本才能更进一步摊薄。

4月,国家互联网信息办公室给出的生成式人工智能管理服务办法(征求意见稿),正及时释放出监管信号。从事这一产业的服务商,都应在我国内法律法规允许的范围内做事情。

(本文首发钛媒体APP 作者 | 杨丽,编辑 | 盖虹达,欢迎添加作者微信leeyangamber交流)

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 3587015498@qq.com 举报,一经查实,本站将立刻删除。本文链接:https://www.xmnhj.com/h/157499.html

      
上一篇 2023-04-16
下一篇 2023-04-16
相关推荐
发表回复
登录后才能评论