投资要点
(资料图片)
事件: 5 月 29 日, 英伟达创始人兼 CEO 黄仁勋在 NVIDIA Computex 2023 演讲中宣布, 生成式 AI 引擎 NVIDIA DGX GH200 现已投入量产, NVIDIA DGX GH200是将 256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型 AI 超级计算机, 支持万亿参数 AI 大模型训练。
英伟达 GH200 打开算力赛道, 光模块、 服务器和交换机需求激增。 NVIDIA DGXGH200 是唯一一款在 256 个 NVIDIA Grace Hopper 超级芯片上提供 144TB海量共享内存空间的 AI 超级计算机, 为开发人员提供近 500 倍的内存来构建巨型模型新架构全光方案刺激高速光模块需求。 据测算, 英伟达超级芯片对800G 光模块需求数量的比 1:18, 对 400G 需求为 1:36; 半光方案超级芯片:800G光模块数量比 1:9, 随着 DGX GH200 现量产, 光模块需求将共振。 根英伟达公布的 GH200 产品说明书, GH200 通过 96 组 L1 NVLink Switch、 36 组 L2 NVLinkSwitch, 互连 256 个 GH200 超级芯片, 组成超级算力产品, 在实际应用中预计将大量配置交换机和服务器。
算力需求向下游 IDC 建设、 配套高速线缆和高速连接环节扩散。 在 IDC 建设领域, 英伟达 GH200 的推出为 AI 大模型训练提供了算力保障, 随着云厂商大模型逐渐成熟, 2023 年下半年算力会从训练到推理倾斜, 推理完成后云计算大厂数据中心预计将进入大规模建设阶段, 其中与百度等互联网厂商合作较好合作基础的奥飞数据会直接受益。 在高速线缆和高速连接领域, GH200 的量产将带动高速光模块需求激增, 其的配套高速光学器件封装技术产品有望迎来共振, 同时,用于数据中心短距离互联的高速数据电缆和长距离传输的光放大器、 通信干线传输、 铌酸锂调制器等配套产品也将迎来需求增长。
算力升级加速大模型落地, 垂直应用预计最先受益。 NVIDIA DGX GH200 是将256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型 AI 超级计算机, 支持万亿参数 AI 大模型训练, 能够处理大规模推荐系统、 生成式人工智能和图形分析, 并为巨型人工智能模型提供线性可扩展性。 作为融合性技术,人工智能加速 IT、 CT、 OT、 DT 深度融合, 推动相关技术全面突破和迭代创新。目前, 中国 10 亿以上参数规模的大模型已经发布了 79 个, 国内大模型呈现蓬勃发展态势, 工业互联网平台作为算力、 算法、 数据和应用的汇聚载体, 是工业AI 的绝佳入口, 随着 GH200 的量产应用, 阿里、 华为等 AI 大模型也将加速落地, AI+工业应用有望直接受益, 推动生产方式与企业形态根本性变革。
建议关注标的
1 .光模块: 中际旭创、 天孚通信、 光迅科技、 新易盛、 博创科技、 源杰科技、华工科技
2 .交换机服务器: 紫光股份、 星网锐捷、 菲菱科思
3 .IDC: 奥飞数据、 润建股份、 数据港
4 .配套高速线缆和高速连接: 兆龙互连、 德科立、 特发信息
5 .AI+工业: 东土科技、 映翰通、 三旺通信
风险提示: 市场需求不及预期, 业务拓展不及预期, 企业经营成本上升