中信证券-英伟达-NVDA.US-深度跟踪报告:从ChatGPT看英伟达AI业务的短期弹性、中期空间-230228

《中信证券-英伟达-NVDA.US-深度跟踪报告:从ChatGPT看英伟达AI业务的短期弹性、中期空间-230228(29页).pdf》由会员分享,可在线阅读,更多相关《中信证券-英伟达-NVDA.US-深度跟踪报告:从ChatGPT看英伟达AI业务的短期弹性、中期空间-230228(29页).pdf(29页精品完整版)》请在悟空智库报告文库上搜索。
ChatGPT料将显著加速全球AI产业化进程,并推动大模型成为中短期主流技术路线,相应会带来底层算力消耗的持续、显著增长。依托产品性能、芯片组合、网络技术、软件全栈等层面综合优势,英伟达有望在AI训练、推理(云端)环节持续保持主导性地位。基于简化模型,我们静态估算ChatGPT及相关生成式AI在中短期对英伟达潜在业绩贡献为:训练端12.3亿美元、云端推理104.5亿美元。考虑到短期量化测算准确性相对有限,启发性思考、方向性判断可能更为重要,我们暂不计入ChatGPT及AI相关算力消耗给公司中期带来的新增业绩贡献。我们维持公司FY2024/25/26年收入预测为318.7/372.3/435.0亿美元、净利润(Non-GAAP)预测为115.9/146.7/177.1亿美元,公司当前股价对应FY2024/25/26年PE(Non-GAAP)估值分别为50/40/29x。作为典型的成长&周期股,目前公司正逐步进入业绩上行通道,公司股价亦有望获得来自业绩增长、估值扩张的双重支撑,我们持续看好公司的短期、中长期投资价值。
▍ChatGPT对AI产业可能影响:军备竞赛、AIGC、大模型、产业化运作等。ChatGPT在工程实践层面的创新,以及在全球市场流行带来的鲶鱼效应,有望在技术、产业层面对全球AI产业带来显著影响:1)ChatGPT推动科技巨头仓促应战,谷歌、微软、百度等科技巨头在大语言模型等领域积极投入,有望形成行业示范效应,中短期推升全球AI领域军备竞赛可能;2)ChatGPT等产品作为人类在内容生成领域的理想助手,有望实现内容生产从“人类为主”向“机器+人类协同”过渡,并推动AIGC时代全面到来;3)大模型虽可能不是AI终极答案,但却大概率是中短期最可能的技术方向,同时大模型涌现、泛化能力等,本身需要模型足够“大”,亦对应海量的底层算力消耗。相较于过去CV、推荐系统等小模型时代的“小作坊”模式,大模型良好的问题泛化能力,以及由此带来的“底层算力设施、算法模型、应用场景”的产业链结构,亦客观上推动AI产业形成更为高效的产业分工协作安排,加速AI产业化进程。
▍英伟达AI芯片:有望在AI训练、推理(云端)环节实现持续引领。在AI领域产品布局,英伟达基本遵从:端到端、训练推理一体、软件全栈的业务思路,产品主要包括:AI芯片(训练、推理)、网络(芯片互联、设备互联)、基础软件框架&应用软件等。
1)芯片产品,英伟达芯片架构保持每两年一次更新迭代节奏,并通过制程升级、DSA设计、新的数据精度引入等系列手段提升芯片的综合计算性能,在AI训练、推理环节,均在若干主流的基准测试中实现性能参数遥遥领先主要竞争对手。同时数据中心市场,英伟达亦逐步形成GPU+CPU+DPU的产品组合,产品丰富度不断向英特尔、AMD看齐;
2)网络互联,面向复杂AI模型的训练、推理,需要低延时&高速的芯片、设备互联。目前英伟达NVlink技术已进化到第四代,芯片间能够实现超过800GB/S的数据吞吐,Mellanox(英伟达2020年收购)作为全球InfiniBand网络的领导者,相关产品能够在数据中心内部实现设备间的高速、低延时互联,是HPC的最理想承载者;
3)软件堆栈,从最底层的驱动程序,到最上层的行业应用程序、算法库等,英伟达一应俱全,CUDA生态优势,以及从训练到推理的端到端软件产品解决方案,预计中短期仍将持续构成英伟达最为主要的护城河之一。
4)市场份额,据Liftr Insights数据,目前在最为前沿的北美数据中心AI芯片市场,英伟达份额占比超过80%。依托产品性能、芯片组合、网络技术、软件产品等层面的综合优势,我们判断英伟达有望在AI训练、推理(云端)环节持续保持主导性地位。
▍英伟达业绩弹性量化测算:ChatGPT作为典型的LLM模型,对于当下以大模型为主的AI产业,本身亦具有较好的代表和参考意义,我们聚焦于ChatGPT、生成式AI,并相应测算训练、推理环节的算力需求。以英伟达HGX服务器(含8张A100卡)为算力载体并假定服务器成本为8美元/小时,我们测算结果及说明如下:
1) ChatGPT:a)训练环节,假设参数量为175B、训练数据500BTokens的情况下,我们使用256个英伟达HGXA100服务器,并假设模型FLOPsUtilization(MFU)为Megatron-LM的51.04%,推测单次训练时长约为30.7天,对应服务器端成本约为151万美元;b)推理环节,我们假定模型使用了96层、12288 Hidden Dimension、FP16和INT8混合精度并使用最大4096的Sequence Length,并假设每次用户请求生成的长度平均为200个tokens,问题长度小于500tokens,我们推算每次生成耗费算力成本约为2.7美分,当然2.7美分是理论情况下最高成本,我们估算实际成本视优化手段可能在理论最高成本10%-60%之间浮动。我们假设用户访问ChatGPT的单次成本为理论最高成本(2.7美分/次)的30%(0,8美分/次),服务器实际使用率为70%,则我们估算每天算力成本为160万美元,对应英伟达A100卡需求9.5万张,假定每张A100卡售价1.5万美元,对应英伟达潜在收入14.3亿美元,加上训练端成本,约为14.6亿美元。
2)生成式AI:我们假设所有的生成式AI大模型算力成本遵从类似于LLM的逻辑,且模型训练成本、推理环节单次用户请求成本和ChatGPT完全一致(理想化假设)。a)训练环节,假设大模型的构建、维护将主要由少数科技巨头&科研机构主导,考虑到底层大模型在AI领域的重要性,我们相信每个具有相关技术&资金能力的国家地区、企业机构基本都倾向于构建一套自己的大模型,我们保守估算全球范围内同时维护的大模型数量为50个,则对应英伟达A100卡需求为10.24万张,对应收入15.4亿美元;b)推理环节,为简化讨论,我们主要聚焦于文字生成&归纳、代码编写、商用搜索、聊天机器人等几种主要应用场景,我们静态测算上述场景合计收入为174.2亿美元;c)市场份额,目前英伟达数据中心GPU收入中,我们判断训练环节占比90%,推理环节占比10%左右,我们假定英伟达能够在训练、云端推理环节分别获得80%、60%市场份额,静态估算ChatGPT及相关生成式AI对英伟达潜在业绩贡献为:训练端12.3亿美元、推理端104.5亿美元。
3)补充说明:我们的测算,更多出于实际可操作性考虑,并在前置条件做了较多简化处理,且更多基于当前芯片算力、模型参数、应用场景等静态情形,但全球AI产业是一个快速变化的领域。动态的视角,模型参数规模、训练数据集规模、模型架构&工程实践优化,以及芯片、软件等层面的进步,都可能导致模型对算力需求的急剧增长,以及单次调用成本的大幅降低等。
▍风险因素:公司核心产品、技术演进速度不及预期风险;地缘政治冲突导致公司产品难以在全球市场自由流动风险;下游AI应用场景扩展不及预期风险;全球宏观经济波动导致企业、个人用户IT支出不及预期风险;公司核心技术人员流失风险;全球游戏市场创新不及预期风险;全球自动驾驶进度不及预期风险;地缘政治冲突导致公司产品全球流通受阻风险等。
▍投资建议:考虑到短期量化测算准确性相对有限,启发性思考、方向性判断可能更为重要,我们暂不计入ChatGPT及AI相关算力消耗给公司中期带来的新增业绩贡献。我们维持公司FY2024/25/26年收入预测为318.7/372.3/435.0亿美元、净利润(Non-GAAP)预测为115.9/146.7/177.1亿美元,公司当前股价对应FY2024/25/26年PE(Non-GAAP)估值分别为50/40/29x,作为典型的成长&周期股,目前公司正逐步进入业绩上行通道,公司股价亦有望获得来自业绩增长、估值扩张的双重支撑,ChatGPT及AI则有望在现有财务模型基础上贡献显著的业绩弹性,我们持续看好公司的短期、中长期投资价值。