【招银研究|行业深度】AIGC行业全景篇——算力、模型与应用的创新融合
(以下内容从招商银行《【招银研究|行业深度】AIGC行业全景篇——算力、模型与应用的创新融合》研报附件原文摘录)
■ 人工智能的发展历程与AIGC的市场机遇。人工智能的发展经历了三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演进。AIGC利用生成式AI技术,创造出多样化的内容,展示出巨大的商业潜力。AIGC产业链可划分为基础层、模型层和应用层。预计到2030年,AIGC市场规模将增至9810亿美元,推动全球经济增长4.9万亿美元,累计产生的经济影响达到19.9万亿美元。 ■ 基础层:AIGC的快速发展推动算力需求激增,算力存储网络成为投资的主赛道。随着AIGC技术的快速发展,特别是基于Transformer的大模型对算力需求急剧增加,全球互联网巨头纷纷加大对AIGC基础设施的投资,以推动创新和保持竞争优势。GPU系统、HBM存储和高性能网络基础设施在AIGC计算中发挥着关键作用,满足了对高速并行计算的需求,成为硬件基础设施投资的主赛道。 ■ 模型层:算法进步、性能成本优化与商业模式多元化的融合。AIGC技术的进步得益于生成算法、预训练模型和多模态技术的创新。在大语言模型的竞争中,性能和成本是两个核心要素,性能的提升和成本的降低使得AIGC的应用更加广泛。AIGC公司通过订阅服务、API接入等多元化商业模式来拓展收入渠道,从而增强自身的市场竞争力。随着企业逐渐认识到AIGC技术的潜力,预计B2B服务将在整体AIGC市场中占据主导地位。全球大语言模型市场将显著增长,OpenAI凭借ChatGPT的成功在市场上处于领先地位,而科技巨头如微软、亚马逊和谷歌也正通过技术创新和产品整合来追赶。 ■ 应用层:技术创新应用推动市场发展和行业变革。AIGC技术正推动ToC和ToB领域的创新与多元化应用,覆盖Chatbot、社交、游戏和内容创作等多个场景,并在企业层面提供提高效率、降低成本的解决方案。在电子设备领域,AIGC技术引发革新,特别是在智能手机、汽车和人形机器人的智能化创新中表现突出。各类AIGC应用爆发式增长,其中AI广告市场份额最大,药物研发、网络安全和IT服务市场增速最快。 ■ 业务建议。随着市场需求的不断增长,AIGC应用有望在多个行业实现突破,带来长远的发展机会,建议重点关注AIGC应用的长期机会。(本部分有删减,招商银行各行部请联系研究院查阅原文) ■ 风险提示。(1)伦理道德的风险。(2)技术缺陷的风险。(3)监管与法律的风险。(4)商业化不确定的风险。(5)市场竞争加剧的风险。(6)宏观经济波动的风险。 正文 AIGC是一种基于生成式AI技术的新型内容创作方式。本篇报告围绕AIGC的发展历程与市场机遇、算力基础设施的发展趋势、大模型算法与商业模式的融合以及AIGC应用市场的创新发展来分析AIGC产业链的相关机会,最后阐明商业银行在AIGC赛道的业务机会与风险。 人工智能的发展历程与AIGC的市场机遇 1.1 人工智能产业发展历程,从图灵测试到生成式AI的演进 人工智能(Artificial Intelligence, AI)作为计算机科学的一个重要分支,旨在深入探讨智能的本质,创造出能够模拟人类思维与反应的智能机器。经过多年的不断进化,人工智能如今已演变为一门涵盖机器人技术、语言识别、图像识别、自然语言处理及专家系统等多个研究领域的综合性学科。 人工智能的历史可以追溯到20世纪50年代。1950年,被誉为“人工智能之父”的艾伦·图灵(Alan Turing)提出了著名的图灵测试,借助“问”与“答”的方式来评估机器是否具备智能。1956年,约翰·麦卡锡(John McCarthy)在达特茅斯会议上首次正式提出“人工智能”这一术语,这一时刻标志着人工智能作为一门独立学科的诞生。 图1:人工智能发展历史时间线资料来源:招商银行研究院 人工智能的发展历程可以划分为三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演进。第一次浪潮(1950s-1970s)期间,研究主要集中在利用符号逻辑和推理来模拟人类智能,然而由于对技术能力的期望过高与实际进展之间的落差,到70年代中期,人工智能进入了“第一次AI之冬”。在第二次浪潮(1980s-2000s)期间,随着计算能力的提升和知识表示技术的发展,专家系统在20世纪80年代兴起,能够模拟特定领域的专家决策能力。90年代,机器学习这一分支迅速崛起,使计算机能够从数据中学习并不断改进。第三次浪潮(2010s-至今)以来,现代人工智能技术广泛应用,如卷积神经网络(CNN)、递归神经网络(RNN)和生成对抗网络(GAN)等,特别是在自然语言处理(NLP)领域的突破,例如BERT和GPT系列模型,使得机器在理解和生成自然语言方面取得了显著进展。 机器学习是人工智能的一个重要分支,使计算机系统能够从数据中汲取知识,进而做出预测或决策。该领域涵盖多个子领域,包括监督学习、无监督学习和强化学习等。监督学习通过利用带标签的训练数据来训练模型,使其能够对未见过的数据进行标签预测,常见算法有逻辑回归、支持向量机(SVM)、决策树和随机森林、神经网络等。无监督学习处理未标记的数据,旨在发现数据的内在结构或模式,常见的算法包括K-均值聚类、层次聚类和主成分分析(PCA)等。强化学习通过与环境的交互学习如何采取行动,以实现长期奖励最大化,常见算法包括Q学习、Sarsa和深度Q网络(DQN)等。机器学习的应用领域非常广泛,涵盖自然语言处理、计算机视觉、医疗健康、金融及推荐系统等多个领域。 图2:人工智能技术发展经历三次浪潮资料来源:infoDiagram、招商银行研究院 图3:人工智能技术路线关系图资料来源:CSDN、招商银行研究院 深度学习作为机器学习的一个重要分支,专注于利用深层神经网络解决复杂问题。它受人脑生物神经网络的启发,构建了由许多简单神经元组成的系统。每个神经元负责接收输入信号,进行加权求和,并通过激活函数生成输出。深度学习通过多层次的神经网络结构,能够自动提取数据的深层次特征。常见的算法包括前馈神经网络(FNNs)、卷积神经网络(CNNs)、循环神经网络(RNNs)以及Transformer等。深度学习的应用领域广泛,涵盖图像识别、语音识别、自然语言处理、生成模型、游戏与强化学习等,已成为当今人工智能技术的核心驱动力。 生成式AI(Generative AI)作为深度学习的一个重要分支,是一种能够基于用户请求创造原创内容的人工智能技术。它通过深度学习模型识别现有内容的模式和结构,这些模型在未标记的原始数据上进行训练,旨在发现并编码大量数据中的模式与关系,以理解自然语言请求并生成相应的新内容。生成式AI的应用领域极为广泛,涵盖文本生成、图像合成、音乐创作以及语音合成等多个方面。 1.2 生成式AI技术推动内容创作的变革与大语言模型的发展 AIGC(Artificial Intelligence Generated Content)是一种利用生成式AI技术自动创作内容的新型生产方式。与传统AI主要关注于识别和预测现有数据模式不同,AIGC则专注于创造全新的、有创意的数据。其核心原理在于学习和理解数据的分布,从而生成具有相似特征的新数据,能够生成文本、图像、音频、视频等多种形式的内容。 图4:AIGC与大型AI模型的关系资料来源:《AIGC的挑战和解决方案》、招商银行研究院 AIGC涵盖了利用生成式AI技术生成的多种类型内容,而大型AI模型则是实现AIGC的重要技术手段。生成式AI通过深度学习模型在大数据集上进行训练,以创造新的文本、图像和音乐等多样化的内容。AIGC不仅包括生成式AI算法,还涉及自然语言处理、计算机视觉(CV)和音频处理等核心技术。在生成式AI的框架中,大型AI模型发挥着至关重要的作用,通常采用大量参数的神经网络架构,主要包括大语言模型(LLM)、大多模态模型(LMM)和大视觉模型(LVM)。其中,大语言模型是最为核心的类型,包含数十亿以上参数的深度神经网络语言模型,运用自监督学习方法,通过大量未标注的文本进行预训练,从而掌握语言的复杂结构。需要注意的是,并非所有的大语言模型都专注于生成任务,有些模型(如BERT)更适合理解任务,而其他模型(如GPT系列)则更擅长生成任务。 大语言模型的发展经历了基础模型、能力探索和突破发展三个阶段。2017年,Vaswani等人提出的Transformer架构为大语言模型的演进奠定了坚实基础。自2018年以来,Google、OpenAI和Meta等公司相继推出了多种大语言模型,如OpenAI的GPT系列、Google的Gemini和Meta的LLaMA系列,推动了这一领域的迅猛发展。 图5:大语言模型发展时间线资料来源:《A Survey of Large Language Models》、招商银行研究院 在基础模型阶段(2018年至2021年),研究主要集中在语言模型本身,Google的BERT和OpenAI的GPT-1标志着预训练语言模型时代的开启,模型参数量实现了数量级的提升,从GPT-1的1.17亿增加到GPT-3的1750亿,这使得大模型在自然语言任务中的表现极为出色。 在能力探索阶段(2019年至2022年),研究者们探索如何在不针对单一任务进行微调的情况下,充分发挥大语言模型的能力,随后引入指令微调方案(Instruction Tuning),使模型在特定任务上的表现更加精准,同时保留了在其他任务上的泛化能力。 在突破发展阶段(2022年11月至今),大语言模型向多模态持续进阶,模型能力不断扩展,从文本生成延伸到图像和视频生成。自ChatGPT于2022年推出以来,它迅速在全球范围内引发了AIGC的广泛关注与应用热潮。以ChatGPT为起点,一个大语言模型即可实现回答问题、文稿撰写、代码生成和数学解题等多项能力,这在过去需要多个小模型才能分别实现。GPT-4作为一款开创性的多模态模型,凭借其卓越的综合实力成为行业标杆,后续推出的GPT-4V、GPT-4-Turbo和GPT-4o在性价比上不断提升。此外,Sora文生视频模型能够根据文本提示生成视频内容,并对现有图像或视频进行编辑和扩展。 1.3 AIGC产业链结构与未来市场增长展望 AI产业链可分为基础层、模型层和应用层三个层面。基础层提供AI运行所需的底层算力资源和数据资源,其中算力资源涵盖AI芯片、存储、网络、安全及基础设施软件,数据资源则包括AIGC模型训练和优化所需的大量高质量多模态数据,以及数据分类、标记和清洗过滤的技术手段。模型层负责开发和优化模型算法,包括通用AIGC模型、行业应用微调模型,以及监督学习、无监督学习和强化学习等训练模型。应用层则涵盖针对企业的专用模型应用和针对个人用户的个性化服务,涉及文本、图像、音频、视频及多模态内容等多个应用服务方向。 图6:AIGC产业链生态体系资料来源:招商银行研究院 AIGC技术展现出巨大的商业潜力,将成为全球经济增长的重要推动力。根据IDC的研究,到2030年,与商业相关的AI解决方案每投入1美元,预计将为全球经济带来4.60美元的直接和间接经济效应。预计到2030年,企业在采用AI、将AI融入现有业务运营,以及向企业和消费者提供AI产品和服务的支出,将推动全球经济增长4.9万亿美元,累计产生的经济影响达到19.9万亿美元,占全球GDP的3.5%。彭博情报预测,随着ChatGPT等AIGC应用的快速增长,AIGC市场有望从2022年的370亿美元增长至2032年的1.36万亿美元,年均复合增长率达到43%。此外,AIGC在信息技术硬件、软件、服务和广告等领域的支出占比将从2022年的1%提升至2032年的12%。 图7:2020-2032年AIGC市场规模资料来源:Bloomberg Intelligence、招商银行研究院 受益于大模型算力需求,AIGC硬件市场预计将迎来显著增长。随着AIGC大模型参数量的快速增加、数据规模的扩展以及对长文本处理能力的提升,算力的需求持续上升。彭博情报预测,AIGC硬件市场将从2022年的350亿美元增长至2032年的6400亿美元,这一增长趋势反映了AIGC技术在训练和推理两个关键环节对算力资源的强大需求。 在训练阶段,AIGC模型需要处理和分析庞大的数据集,这通常要求大量算力资源。预计训练硬件市场规模将从2022年的320亿美元增长到2032年的4710亿美元,年均复合增长率为31%。而在推理阶段,通常需要较低功耗和成本的算力资源来满足用户终端的需求,预计推理硬件市场的增速将更高,从2022年的30亿美元增长至2032年的1690亿美元,年均复合增长率达到48%。 受益于AIGC对行业创新和效率的提升,AIGC软件应用日益广泛。AIGC技术正在改变影视、游戏、漫画和网络文学等领域,通过自动化和优化任务来提高生产效率并促进创意发展。例如,GitHub Copilot基于OpenAI技术,向开发人员提供编码建议,从而减少编程时间,提高开发效率。集成AIGC助手正在成为软件行业的趋势,能够通过自动化和优化多种任务增强用户的工作效率。彭博情报预测,AIGC软件市场将从2022年的10亿美元增长至2032年的3180亿美元,年均复合增长率高达71%。 图8:2020-2032年AIGC硬件市场规模资料来源:Bloomberg Intelligence、招商银行研究院 图9:2020-2032年AIGC软件市场规模资料来源:Bloomberg Intelligence、招商银行研究院 基础层:大模型的技术发展推动算力需求激增,算力存储网络成为投资的主赛道 2.1 AIGC技术迅猛发展引发算力需求激增 随着AIGC技术的迅猛发展,尤其是以Transformer为基础的大模型,对算力的需求激增。这些先进模型在训练和推理过程中,需要巨大的计算资源,包括高性能GPU、高速存储以及高速通信网络。自2017年Transformer模型问世以来,它已成为构建大型语言模型的基石。该模型摒弃了传统的循环神经网络结构,通过自注意力机制处理序列数据,实现了对整个数据序列的并行处理,从而显著提升了训练和推理的效率。然而,这一技术进步也带来了对更高算力的迫切需求,进而增加了模型训练和部署的成本。 根据英伟达的数据显示,在引入Transformer模型之前,算力需求每两年增长约8倍;而采用Transformer模型后,这一数字飙升至每两年增长约275倍。为了满足不断攀升的算力需求,数据中心正朝着超大规模的发展方向迈进,以提供更强大的计算能力和更优越的可扩展性。同时,AI服务器集群也在快速迭代与升级,以确保能够满足日益增长的算力需求。 根据Scaling-law法则,大语言模型的性能随着模型参数量、训练数据量和计算资源的增加而显著提升。从大模型的算力需求来看,随着参数规模、Token数量以及训练所需算力的同步增长,模型性能不断提升。以GPT-4为例,其参数量从GPT-3的约1750亿提升至约1.8万亿,增幅超过10倍;而训练数据集的规模也从GPT-3的几千亿Token扩大到13万亿Token。这种规模上的提升使得GPT-4在处理复杂问题和生成自然语言文本方面的能力得到了极大的增强。 图10:AIGC大模型对算力需求持续快速增长资料来源:英伟达、招商银行研究院 随着AIGC大模型性能的显著提升,对计算资源的需求也呈现出指数级的增长。以GPT-4为例,其训练过程需要约2.15e25 FLOPS的运算量,这通常需要动用约25000块A100 GPU,且训练周期长达90至100天。此外,数据采集、模型优化和强化学习等环节的额外开销,使得整体成本变得更加高昂。根据斯坦福大学2024年发布的AI指数报告,AIGC模型的训练成本正在急剧上升,GPT-4的成本从2022年GPT-3的大约430万美元激增至2023年的7835万美元。随着模型的不断扩展和训练过程的日益复杂,这些成本预计将继续攀升。 表1:LLM模型对GPU算力需求持续提升资料来源:公开资料、招商银行研究院 2.2 互联网巨头加速AIGC投资,以推动创新和竞争 根据海外互联网巨头的资本开支计划,亚马逊、微软、谷歌和Meta等公司正在持续增加对AIGC基础设施的大规模投资。2021至2023年间,这些公司的总资本支出达到4670亿美元,年均约1550亿美元。在2024年第二季度,资本支出达到520亿美元,同比增长54%,主要用于数据中心的AIGC建设,以推动产品转型和技术升级。展望未来,预计在2024至2027年间,这四家公司将投入总额8500亿美元,年均2125亿美元,助力在竞争激烈的AIGC市场中保持领先地位并推动创新与增长。 图11:海外互联网巨头资本支出飙升资料来源:GeekWire、招商银行研究院 从海外互联网巨头的管理层表态来看,针对AIGC领域的高额资本支出将持续一段较长时期。Meta CEO马克·扎克伯格强调维持AI行业领头羊地位的紧迫性,并警告投资不足可能在未来10至15年内使Meta处于竞争劣势。谷歌CEO桑达尔·皮查伊表示,公司倾向于超额投资,以确保抓住AI领域的收入机会,即使面临一定的资源过剩风险。亚马逊CFO布莱恩·奥尔萨夫斯基预计,2024年下半年资本支出将持续增长,主要投资用于满足AIGC及非生成式AI技术的市场需求。微软CFO艾米·胡德则宣布,将加大AI基础设施建设投入,预计在2025财年刷新资本支出记录,以应对不断攀升的AIGC和云服务产品需求。 无论是在全球还是中国市场,AIGC领域的投资都在迅速增长。IDC数据显示,全球AI资本支出预计将从2022年的1325亿美元增长到2027年的5124亿美元,年均复合增长率为31.1%。在中国市场,AI资本支出同样展现出强劲的增长势头,预计将从2022年的128亿美元增至2027年的400亿美元,年均复合增长率为25.6%。中国将在亚太地区人工智能市场发展中继续发挥引领作用,其AI资本支出占亚太地区总支出的50%。 图12:中国AIGC市场资本支出预测资料来源:IDC、招商银行研究院 2.3 算力:GPU引领AIGC技术革新,市场需求持续增长 当前,人工智能领域的AI芯片家族日益壮大,主要包括GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)和NPU(神经拟态芯片)。其中,GPU和FPGA属于成熟的通用型AI芯片,而ASIC则为特定AI场景定制,如谷歌的TPU、亚马逊的Trainium和微软的Maia。 GPU最初设计用于加速图形渲染和显示,广泛应用于游戏、视频制作和处理等领域。随着时间推移,因其在并行处理密集数据方面的卓越能力,GPU逐渐成为AI领域的重要推动力,尤其是在深度学习训练中。其核心性能指标包括算力、显存、功耗和互联能力,成为推动AIGC发展的核心力量。 英伟达的GPU产品在AIGC的发展历程中扮演了至关重要的角色,其成功源于在硬件性能和软件生态方面的持续投入与创新。在硬件领域,英伟达推出了Volta、Turing、Ampere、Hopper和Blackwell等系列架构,这些架构配备了专为深度学习设计的CUDA Core和Tensor Core,显著提升了AI训练与推理的效率。CUDA Core负责基础运算,其数量通常与FP32计算单元相对应;而Tensor Core则在Volta及后续架构中引入,专门用于张量计算,与深度学习框架(如TensorFlow和PyTorch)结合使用,带来了十几倍的效率提升。除了硬件创新,英伟达还构建了全面的GPU软件生态系统,包括CUDA、cuDNN和TensorRT等工具,大大简化了AIGC模型的开发和部署流程,使得AIGC技术的应用更加高效便捷。 表2:英伟达主流GPU产品性能对比资料来源:英伟达、招商银行研究院 随着AIGC技术在多个行业中的广泛应用,对GPU和ASIC算力的需求持续增加。全球数据中心GPU市场在近年来显著扩张,2023年出货量达到385万颗,较2022年的267万颗增长了44.2%。预计在经历2023年和2024年的大幅增长后,全球AIGC GPU和ASIC市场将保持稳定增长。根据Yole的预测,该市场规模将从2023年的505亿美元增至2029年的2330亿美元,复合年均增长率达到29.0%。 英伟达作为GPU市场的领导者,其产品在AIGC训练和推理市场占据主要份额。英伟达不断推出新的GPU架构和软件产品,每一代产品都在性能和能效方面持续提升,其2023年数据中心GPU销售收入达到了362亿美元,根据IoT Analytics的数据,市场份额达到92%。与此同时,AMD和英特尔也在数据中心GPU市场占有一席之地,AMD的MI300系列获得了微软、Meta等订单,市场份额达到3%;英特尔的Gaudi 2则提供高性能且具成本效益的解决方案。此外,一些新兴参与者也在进入市场,推动技术创新与产品多样化。 图13:全球AIGC GPU和ASIC市场规模预测资料来源:Yole、招商银行研究院 图14:AIGC GPU市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 2.4 存储:HBM凭借高带宽和低延迟推动AIGC计算 HBM(高带宽存储器)是一种采用3D堆叠技术的DRAM,通过先进的硅通孔(TSV)封装方法,能够实现高容量、高带宽、低延时和低功耗的特性。这种设计特别适用于高性能计算和图形处理,尤其是在AIGC计算中,HBM与GPU的结合极大提升了并行数据处理速度。 在AIGC计算中,GPU需要处理大量并行数据,要求具备高算力和大带宽。通过中介层与HBM的互联封装,HBM的高带宽特性为GPU提供了充足的内存带宽,支持其高速数据处理需求,从而加速AIGC模型的训练和推理过程。 HBM存储技术自2013年SK海力士首次推出HBM1以来,经历了多次重要的产品迭代,包括HBM2、HBM2E、HBM3和最新的HBM3E。每一代产品在容量、带宽和功耗效率上都有显著提升,其中HBM3E提供高达9.2Gbps的I/O传输速度和超过1280GB/s的带宽。展望未来,预计HBM4将在2026年上市,将支持更广泛的内存层配置,以更好地满足不同类型的应用需求。 图15:HBM 3D堆叠与GPU封装架构资料来源:Tech Investments、招商银行研究院 图16:HBM技术路线图资料来源:SK海力士、招商银行研究院 AIGC的迅猛发展正在刺激数据中心对高速DRAM内存的需求持续增长。随着超大规模企业不断扩展服务器容量以支持大语言模型的训练和推理任务,高速DRAM和HBM的需求也显著上升。数据中心已成为DRAM需求最大的细分市场,占据整体市场份额的50%。预计随着HBM和CXL(Compute Express Link)等新技术的普及,数据中心DRAM市场的增速将超过整体DRAM市场。根据Yole Group的预测,DRAM市场将从2023年的520亿美元增长到2029年的1340亿美元,复合年均增长率为17%,而数据中心DRAM在2023-2029年间的复合年增长率将达到25%。 在全球DRAM市场中,三星、SK海力士和美光占据了主导地位,三家公司合计市场份额高达94%。其中,三星以40%的市场份额继续稳居全球最大DRAM供应商,SK海力士和美光分别占有29%和25%的市场份额。 图17:存储行业全球市场规模预测(2023-2029)资料来源:Yole、招商银行研究院 图18:DRAM全球市场份额(2023)资料来源:Yole、招商银行研究院 随着AIGC算力需求的持续上升,全球HBM市场正经历快速增长。根据Yole Group的分析,全球HBM市场预计将从2023年的55亿美元增长至2029年的377亿美元,复合年均增长率达37.8%。HBM市场增速将显著超过整体DRAM市场,HBM在整体DRAM出货量中的占比预计将从2023年的2%增长到2029年的6%,营收占比将从2023年的10.4%增长到2029年的32.8%。 SK海力士在HBM市场中占据领先地位。SK海力士在HBM的开发和商业化方面处于领先地位,是HBM3的主要供应商,也是Nvidia H100和H200的唯一供应商。三星主要生产HBM2E,并计划开始生产HBM3。美光则跳过HBM3,直接推出HBM3E。根据TrendForce的数据,2023年SK海力士、三星、美光在HBM市场的份额分别为55%、41%、9%。 图19:HBM全球市场规模资料来源:Yole、招商银行研究院 图20:HBM全球市场份额(2023)资料来源:TrendForce、招商银行研究院 2.5 网络:高性能网络基础设施推动AIGC发展,高速率光模块需求激增 在AIGC算力架构中,高性能网络基础设施扮演着至关重要的角色。网络瓶颈可能导致GPU集群的利用率降低、大模型训练时间延长及训练成本增加。因此,为了满足AIGC计算的需求,尤其是在大规模GPU集群中,亟需大量高效的网络交换设备,以支持高速率、低时延、高吞吐量和高能效的数据传输。800G/1600G网络技术的发展,能够提供更高的数据传输速率和更低的传输时延,从而加速AIGC模型的训练与推理过程。 图21:AIGC发展推动数据中心向800G以上速率发展资料来源:FS、招商银行研究院 AI集群的快速发展正推动光模块需求的迅速增长。随着GPU性能提升和AIGC应用扩展,对光模块的数量和速率需求持续增加。以英伟达DGX H100的二层网络架构为例,每个H100 SuperPOD包含4个SU扩展集群,每个SU扩展集群由32个H100服务器和8个Leaf交换机组成,整个SuperPOD共有1024个GPU、32个Leaf交换机和16个Spine交换机。在Leaf层,服务器侧采用400G光模块,交换机侧采用800G光模块,总共需1024个400G光模块和512个800G光模块。在Spine-Leaf层采用800光模块互联,共需1024个800G光模块。在该架构下,GPU与400G光模块的比例为1:1,与800G光模块的比例为1:1.5。当系统升级到DGX H100三层网络架构时,GPU升级至800G网卡,Leaf和Spine-Leaf层均采用800G光模块互联,导致光模块需求显著增加,GPU与800G光模块的比例增至1:6。随着英伟达新一代Blackwell架构平台的发布,无论是小型GB200集群还是大型GB200集群,对800G光模块的需求比例均有所上升:小型集群的GPU与800G光模块比例达到1:2,而大型集群则为1:4.5。 表3:英伟达GPU与光模块需求测算资料来源:Fibermall、英伟达、招商银行研究院 AIGC技术的迅速发展正在引领光模块市场的扩张。2023年5月,谷歌和英伟达成为首批显著增加光模块采购以支持AIGC数据中心的大客户,随后其他领先的云计算公司也纷纷加入光模块竞争。根据LightCounting的预测,用于AI集群的光模块市场预计将从2023年的20亿美元增长至2029年的120亿美元,年均复合增长率达到34.8%。在2025至2029年间,该市场规模将超过520亿美元。 随着AIGC大模型训练对更快数据传输的需求不断上升,高速光模块的需求随之激增。预计到2024年,800G光模块将成为市场主流,1.6T光模块也将进入试产阶段。预计到2029年,1.6T和3.2T光模块的市场规模将达到100亿美元,成为AI集群光模块市场的主要组成部分。 图22:全球光模块市场预测资料来源:Yole、招商银行研究院 图23:AI集群光模块市场预测资料来源:LightCounting、招商银行研究院 中国厂商在全球光模块市场中表现卓越。根据LightCounting的数据,2023年,全球前十大光模块厂商中,中国企业占据了7个席位,合计市场份额超过50%。多家中国厂商已成功进入英伟达的供应链。其中,中际旭创的市场份额位居全球第一,华为、光迅科技、海信、新易盛、华工正源、索尔思光电分别排名第三、第五、第六、第七、第八和第九位。进入2024年,全球主要光模块厂商业绩的变化进一步显示出市场份额向中国厂商的集中趋势。尽管中国厂商在光模块制造领域取得了显著进展,然而在光芯片和电芯片等关键原材料方面,仍然依赖进口,国产化程度亟待提高。 表4:全球TOP10光模块厂商排名资料来源:LightCounting、招商银行研究院 模型层:算法进步、性能成本优化与商业模式多元化的融合 3.1 生成算法、预训练模型与多模态技术催生AIGC的迅猛发展 AIGC与以往的AI技术最显著的区别在于其从分析式AI(Analytical AI)发展为生成式AI。分析式AI模型主要通过对已有数据的分析、判断和预测来提供决策支持,而生成式AI模型则是通过学习已有数据,创造出全新的内容。这一转变得益于先进的生成算法、强大的预训练模型以及创新的多模态技术,共同推动了AIGC的迅猛发展和爆炸性增长。 AIGC的快速崛起得益于基础生成算法的持续创新与突破。核心生成算法,如生成对抗网络(Generative Adversarial Network,GAN)、扩散模型(Diffusion Model)和Transformer等,为AIGC的发展奠定了坚实的技术基础。这些算法的不断进步推动了AIGC的爆发,拓展了其在内容生成领域的应用潜力。 2014年,伊恩·古德费洛提出的生成对抗网络(GAN)成为早期最著名的生成式模型,标志着生成式AI的重要里程碑。随之而来,诸如DCGAN、Style -GAN、BigGAN和CycleGAN等变种架构相继问世,这些发展不仅推动了GAN理论的深化,也为图像生成、视频生成和三维模型生成等领域提供了强大的工具,极大丰富了生成式AI的应用场景。 2017年,Vaswani等人提出的Transformer模型引入了自注意力机制,使得模型能够根据输入序列中的不同部分分配不同的注意权重,从而更有效地捕捉语义关系。这一创新催生了众多变体,如BERT、GPT和XLNet等,这些模型在各自领域取得了显著成果,推动了自然语言处理等行业的发展。伴随着生成式算法的不断创新突破,AIGC如今能够生成多种类型的内容和数据,包括文本、代码、图像、语音和视频物体等,展现了广泛的应用潜力。 表5:主流生成算法模型资料来源:公开资料、招商银行研究院 预训练模型的出现为AIGC技术带来了颠覆性的进步。尽管过去各种生成式模型层出不穷,但由于任务类型单一、使用门槛高、训练成本昂贵以及内容质量不足,难以满足复杂多变的应用场景。预训练模型,也称为基础模型或大模型,通过在大规模数据集上进行训练,学习到丰富的特征表示,展现出更强的泛化能力和深入的语言理解及内容生成能力。这些模型具备通用特征学习、迁移学习、多任务学习和领域适应等关键特性,显著增强了AIGC的通用化能力,使同一模型能够高质量完成多种内容输出任务。通过在特定领域数据上进行微调,模型能够迅速适应并掌握新领域的特定特征,极大提升了其实用性和灵活性。 2018年,谷歌推出了基于Transformer架构的自然语言处理预训练模型BERT,标志着人工智能领域进入了一个以大规模预训练模型参数为核心的新纪元。BERT的核心创新在于其双向训练策略,能够同时考虑单词左侧和右侧的上下文信息,使得其在理解单词含义时更为精准。通过在大量文本数据上的预训练,BERT学习到了深层次的语言表示,这些表示可以迁移到多种下游NLP任务中,如文本分类、问答系统和命名实体识别等。BERT通过微调(Fine-tuning)进一步适应特定任务的需求,极大地提升了自然语言处理的效果和应用广度。 图24:预训练模型BERT结构图资料来源:谷歌、招商银行研究院 多模态技术的发展推动了AIGC内容的多样性,增强了模型的通用化能力。该技术使不同类型的数据(如文本、图像、音频和视频)能够互相转化和生成,从而使AIGC模型能够跨模态生成各种类型的内容。CLIP(Contrastive Language-Image Pretraining)模型是OpenAI提出的一种典型多模态预训练模型。其核心思想是利用大规模的图像和文本数据进行自监督学习,使模型能够在没有明确标注的情况下理解和关联不同模态的数据。CLIP能够将图像和文本映射到同一个向量空间,促进了不同模态数据的理解与关联,为文生图、文生视频等AIGC应用的快速发展奠定了基础。 一个典型的多模态大型语言模型(MLLM)可以抽象为三个核心模块:预训练的模态编码器(Modality Encoder)、预训练的大型语言模型,以及连接它们的模态接口(Connector)。类比于人类,模态编码器相当于接收和预处理光学/声学信号的人类眼睛和耳朵,而大型语言模型则像是理解并推理处理信号的人类大脑。在这两者之间,模态接口的功能是对齐不同的模态。以GPT-4V为代表的多模态大型语言模型在多模态任务中展现出了前所未有的能力。随着技术的不断进步,多模态模型将在更多领域发挥重要作用。 图25:典型多模态大模型架构示意图资料来源:IEEE、招商银行研究院 3.2 性能与成本:大语言模型竞争的核心驱动力 大语言模型的竞争主要集中在两个核心要素上:性能和成本。性能决定了模型能够处理的任务复杂度和准确性,而成本则影响模型的商业可行性和普及程度。这两者的平衡将直接影响大语言模型在市场上的竞争力与应用广度。 硬件性能的提升与软件算法的创新共同推动了大语言模型的不断提升。在硬件方面,GPU性能的增强显著提升了模型的训练和推理能力,得益于半导体工艺的进步和持续的GPU设计创新,这使得复杂任务的处理更快速高效。软件方面,创新算法如Chinchilla的最优缩放、人类反馈强化学习(RLHF)、推测解码(Speculative Decoding)和Flash Attention等,为大模型的发展注入了新的活力。例如,Chinchilla通过合理分配模型大小和训练数据量,优化了有限计算资源下的模型训练;Llama2利用RLHF方法,确保输出更符合用户期望;推测解码实现了推理速度的显著提升;而Flash Attention则通过优化注意力机制,提高了GPT模型的训练速度。这些因素的结合使得大语言模型在性能和效率上不断取得突破。 图26:大模型训练性能不断提升资料来源:ARK、招商银行研究院 随着训练成本的不断下降,AIGC的应用正变得越来越普及。赖特定律(Wright‘s Law)表明,当一种产品的累计产量翻倍时,其单位成本将下降一个固定百分比。在AIGC领域,尤其是大模型训练中,GPU硬件性能的提升和算法优化对成本降低起到了关键作用。根据ARK的分析,随着硬件技术的不断进步,AI相对计算单元(RCU)的成本预计每年将降低53%,而模型算法的增强预计每年可使训练成本降低47%。预计到2030年,硬件和软件的融合将使AIGC训练成本以每年75%的速度下降。这一显著的成本降低将推动AIGC技术的普及与经济性,从而促进AIGC的广泛应用和创新。 图27:AIGC训练硬件成本趋势资料来源:ARK、招商银行研究院 图28:AIGC训练软件成本趋势资料来源:ARK、招商银行研究院 随着LLM公司之间竞争的加剧,AIGC的推理成本正迅速降低。AIGC模型在处理输入和输出时,其计算资源消耗与输入输出的数据量成正比,费用计算基于输入输出的Token数量,这种计费方式为不同用户提供了灵活性。 以OpenAI为例,在过去两年里,它将API访问成本降低了99%。具体来看,GPT-3的API推理成本从2021年的每千Token 0.06美元降至2022年的0.02美元,降幅达66%。到2023年,GPT-3.5 Turbo的API推理成本与2021年相比下降了86%。同时,GPT-4 Turbo的API推理成本与GPT-4-32k相比降低了92%,其成本甚至低于一年前的GPT-3。 值得注意的是,这一推理成本的降低是在提供更长的上下文、更低的延迟和更新知识截止日期的情况下实现的。微软CEO纳德拉认为,与摩尔定律类似,AI领域也存在Scaling Law(尺度定律),在AI时代,衡量单位是“每美元每瓦特的Token数”。这种竞争态势将进一步推动AIGC技术的普及与应用。 图29:GPT API推理成本快速下降资料来源:ARK、招商银行研究院 3.3 AIGC市场快速增长推动多元化商业模式与竞争格局演变 AIGC大模型公司正在通过多元化商业模式开拓收入渠道,目前主要集中在订阅服务和API接入两种模式。 1.订阅服务:用户支付月费或年费以享受持续的服务。例如,OpenAI的ChatGPT Plus订阅服务目前每月收费20美元,预计在2024年底提价至22美元。截至2024年9月,ChatGPT Plus已拥有1000万订阅用户。 2.API接入模式:企业将API服务整合至其应用程序中,并根据使用情况付费。OpenAI的API定价因模型和使用情况而异,通常根据输入输出的Tokens进行差异化定价。 此外,OpenAI还与Microsoft Azure合作,为大规模企业提供定制化的专用实例,价格层次丰富,满足不同企业的需求。这种多元化的商业模式不仅为AIGC公司带来了稳定的收入来源,也使其能够更好地服务于不同类型的用户和市场。 除了订阅和API接入,大模型公司还在积极探索其他多种商业模式,包括: 1.企业定制服务:大模型公司为特定企业需求提供个性化解决方案,深度集成特定应用场景或行业需求,帮助企业实现更高效的业务流程。 2.软件授权:这种模式允许公司出售技术使用权,特别适合那些需要在本地部署解决方案的企业。这使得客户能够根据自身的安全和合规要求来管理和使用模型。 3.内容许可:大模型公司与机构合作,获得内容许可以训练模型。这种合作可以增加训练数据的多样性,提高模型的表现。 4.合作伙伴关系:建立与大型科技公司的紧密合作关系,例如OpenAI与Microsoft的合作,涉及技术集成和新产品共同开发。这种合作不仅为大模型公司带来额外收入,还能够提升其技术能力和市场竞争力。 通过这些多元化的商业模式,大模型公司能够更灵活地适应市场需求,拓宽收入来源,提高自身的市场竞争力。 随着越来越多的企业认识到AIGC技术的潜力,B2B市场的需求预计将持续增长。根据OpenAI的收入构成,2023年其B2C和B2B业务各占一半。预计到2024年,OpenAI的收入将达到约37亿美元,2025年将大幅增至116亿美元。这一增长主要得益于ChatGPT订阅用户的增加以及企业API和定制解决方案的使用。B2C市场规模预计将达到100亿至200亿美元,但市场占有率预计不足10%。B2B市场规模预计高达2000亿美元以上,且市场占有率超过90%。这一比例显示出B2B服务在整体AIGC市场中的主导地位。 图30:AIGC大模型长期潜在市场与收入结构预测资料来源:Kelvin Mu、招商银行研究院 随着AIGC技术的快速发展,大模型平台市场正在经历显著增长。AIGC技术的不断进步和应用领域的持续扩展,促使越来越多的企业采用大模型平台来构建和扩展其应用程序。2022年底ChatGPT的公开发布,成为推动行业增长的重要催化剂。根据Market.US的预测,全球大语言模型市场规模将从2023年的45亿美元增长到2033年的821亿美元,复合年增长率为33.7%。中国市场同样展现出强劲的增长潜力。前瞻产业研究院的预测显示,中国大语言模型市场规模将从2023年的147亿元增长到2029年的1186亿元,复合年增长率为41.6%。 图31:全球大语言模型市场规模预测资料来源:Market.US、招商银行研究院 图32:中国大语言模型市场规模预测资料来源:前瞻产业研究院、招商银行研究院 在大语言模型市场,OpenAI凭借其卓越的技术成为市场的领头羊。根据IoT Analytics的分析,OpenAI在推出ChatGPT短短两个月内便实现了月活跃用户数突破1亿,成为有史以来用户增长速度最快的消费级应用程序。凭借ChatGPT的成功,OpenAI在大语言模型市场中以39%的市场份额处于领先地位。紧随其后的是科技巨头微软(30%)、亚马逊(8%)和谷歌(7%)。此外,一些领先的AI创业公司,如AI21 Labs、Anthropic和Cohere等,也占据了一定的市场份额。 图33:大语言模型市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 互联网科技巨头正通过持续的技术创新和产品整合,努力追赶并挑战OpenAI在大语言模型市场的领导地位。微软将OpenAI的功能集成到其多种产品中,包括Azure、Office 365和Bing。Azure AI平台提供了强大的工具集,允许客户选择不同的大语言模型,例如OpenAI的模型或Llama 2,并提供定制化的AI应用程序,增强了数据安全性。亚马逊的Bedrock专注于提供平台服务,支持客户访问多家AI公司的大语言模型,帮助他们更加灵活地构建和扩展生成式AI应用程序。谷歌的Gemini是一系列多模态模型,它被融入谷歌的产品体系,能够处理和组合各种数据类型。此外,谷歌的Vertex AI是基于云计算的AI平台,融合了最新的技术和能力,可以帮助企业快速实现AI应用的开发和部署。 应用层:技术创新推动应用市场发展和传统行业变革 4.1 AIGC技术加速ToC与ToB领域的创新与多元化应用 AIGC技术在面向消费者(ToC)和面向企业(ToB)领域都有广泛的应用场景。随着技术的持续演进和迭代,这些应用场景和商业模式正不断拓展和演变。 在面向消费者领域,AIGC技术满足了个人的日常生活需求,涵盖了如Chatbot、社交、游戏、教育和内容创作等多个场景。在社交娱乐方面,AIGC技术使普通用户能够以较低的门槛参与内容创作,激发创作灵感,用户可以通过AIGC创作画作、文本、歌曲等。在教育领域,AIGC技术被用于开发个性化的学习工具和课程,帮助学生更高效地学习。此外,在搜索引擎和内容推荐方面,AIGC技术利用自然语言生成和机器学习等技术,快速生成新闻报道和文章,并提供个性化的推荐服务。 在面向企业领域,AIGC技术为企业客户提供了多种解决方案,帮助提高效率、降低成本、创新产品,并增强市场竞争力。在办公领域,AIGC技术能够提升工作效率和质量,激发创意和乐趣,创造更便捷、高效和创新的办公体验。在内容生产和媒体方面,AIGC技术提供高效工具,提升内容产出效率和质量,降低生产成本。在广告营销领域,AIGC技术通过内容创新、制作成本节约和流程效率提升,推动营销效果的增强。在游戏开发方面,AIGC技术应用于智能NPC、场景建模和AI剧情等功能,提升游戏的创新性和玩家体验。在药物研发领域,AIGC技术在辅助诊断和药物研发过程中发挥着重要作用。 表6:常见的AIGC应用场景资料来源:招商银行研究院 AIGC应用产品种类繁多,其中Chatbot占据领先地位。根据AI产品榜的数据,全球市场上,ChatGPT的月访问量已突破30亿次,使其成为全球第十一大网站。从产品分布来看,AIGC赛道涵盖了多个领域,包括Chatbot、内容创作、翻译、搜索、教育和知识管理等。在国内市场,前十的应用主要以Chatbot为主,同时AI搜索的占比也在逐步提升。 表7:全球AIGC应用排名(2024年9月)资料来源:AI产品榜、招商银行研究院 4.2 AIGC技术驱动电子设备革新,大模型引领手机、汽车与机器人智能化创新 AIGC技术正引领一场新的科技革命,大模型在传统硬件设备中的应用日益广泛,为智能手机、汽车、机器人等多个产业链带来了全新的机遇。这些技术的融合不仅提升了设备的智能化水平,还推动了各行业在功能和效率上的创新,为用户提供更加个性化和高效的体验。 智能手机通过引入大模型资源,显著增强了用户的操作体验。利用API模式,智能手机可以集成ChatGPT等先进的大模型,实现个性化内容创造、智能语音助手和个性化推荐等方面的重大突破。AIGC技术能够根据用户的个性化需求,自动生成文本、图片、视频等多种内容,广泛应用于社交媒体、个人表达和商业领域。借助API与大模型的连接,智能语音助手变得更智能、更人性化,能够理解上下文,提供更流畅自然的对话,并执行更复杂的任务。此外,AIGC还可以通过API实时生成个性化内容推荐,例如个性化新闻、主动购物推荐和应用建议,为用户带来更加丰富和个性化的服务体验。 AIGC技术正以其革命性的力量推动手机硬件和操作系统重构,引发手机产业链生态的深刻变革。随着手机算力的显著提升和大模型的压缩与优化,操作系统有望采用边缘计算与本地推理相结合的创新方式,在高效手机上实现轻量级推理,同时将大部分计算任务放在云端。未来,更多的应用程序将通过调用AIGC API来实现内容生成、推荐系统和交互功能,从而减少传统手动编写内容的依赖,使开发者能够更专注于核心业务逻辑的构建。这种变革将带来更个性化的交互、更智能的任务管理以及实时生成的个性化内容。操作系统能够生成适应用户个人风格和需求的UI设计、动态壁纸和主题,可以根据用户的使用习惯自动安排任务,提供更加定制化服务。 图34:AIGC推动大模型与电子设备智能化升级资料来源:Yole、招商银行研究院 在汽车领域,AIGC技术正在推动自动驾驶技术的发展。AIGC涵盖了多个关键方面,包括训练数据生成、情境理解、路径规划、实时学习和用户交互等。通过这些技术的融合,自动驾驶系统能够更有效地应对复杂的道路环境,理解驾驶者的需求,并不断提升其智能化水平,为自动驾驶技术的发展提供重要支撑。特斯拉的FSD 12在感知能力、决策算法和用户交互等方面取得了显著提升,能够在特定地区和情况下支持更高级的自动驾驶功能。这为未来的完全自动驾驶奠定了更坚实的基础,使汽车不仅能够自动驾驶,还能更好地适应驾驶者的个性化需求和动态道路状况。 AIGC技术加速了人形机器人在智能化和多样化发展上的进步。借助AIGC,人形机器人不仅能执行简单任务,还能主动学习和理解用户需求,提供个性化服务。AIGC使人形机器人能够自然地理解和生成对话内容,模拟人类沟通方式,从而在交流中为用户提供更真实和智能的反馈。此外,AIGC还使人形机器人具备生成和识别视觉内容的能力,这提高了它们在教育、娱乐、医疗等领域的视觉理解能力。人形机器人能够通过AIGC不断从环境中学习,并生成复杂场景的应对策略,例如在制造业中优化生产流程,或在医疗领域辅助医生进行诊断。这种动态适应能力使人形机器人在多变的环境中更加灵活。随着AIGC的发展,人形机器人不仅能够服务于多种场景,还能适应不断变化的需求,推动其从单一功能向智能化、个性化助手的演变。 图35:特斯拉FSD自动驾驶路径规划 图36:2024年全球主流人形机器人 (图35~图36有删减,招商银行各行部请登录“招银智库”查阅原文) 4.3 AIGC应用市场正处于发展初期,竞争格局多元化且持续演变 根据彭博情报(Bloomberg Intelligence)的预测,随着各类AIGC应用的爆发式增长,AIGC应用市场的规模预计将从2022年的18.60亿美元增长到2032年的6618.14亿美元,年均复合增长率达到80%。在这一市场中,AI广告预计将占据最大市场份额,而药物研发、网络安全和IT服务市场的增速最快。同时,AIGC在科技领域的投入也将显著增加。信息技术硬件、软件、服务及广告等领域的AIGC支出预计将从2022年总支出的1%增长到2032年的12%。这一增长反映了AIGC在各个行业中的广泛潜力,尤其是在加速产品开发、自动化流程以及增强决策支持方面的应用。 图37:2022-2032年AIGC应用市场规模资料来源:Bloomberg Intelligence、招商银行研究院 AIGC市场正处于一个充满机遇与挑战的初期阶段。尽管近年来AIGC技术取得了显著进步,应用场景不断增加,但整体市场仍在探索和形成中。随着新模型和应用层出不穷,企业和开发者不断寻求更高效、更智能的解决方案,以满足不断变化的市场需求。AIGC的应用场景从内容创作、营销扩展到医疗、教育等多个领域,不同的行业对AIGC的需求和实现方式各不相同,企业正在探索最佳的整合方式。除了大型科技公司,许多初创企业也纷纷进入这一领域,推出各种创新的AIGC应用,进一步加剧市场竞争。随着技术的成熟和应用的深入,预计未来几年AIGC应用市场将迎来更大的发展和变革。 AIGC应用市场正呈现出多元化的竞争格局,发展态势持续演变。随着越来越多的初创企业和中小型公司进入市场,这些企业致力于推出针对特定行业的AIGC产品,如医疗、广告、金融和教育等领域的定制化应用工具。根据IoT Analytics的分析,2023年埃森哲以6%的市场份额在AIGC应用市场保持领先地位,并将AIGC技术整合到其咨询服务中,帮助客户实现数字化转型。IBM、Capgemini和Cognizant紧随其后,展现了这些公司在推动AIGC技术应用方面的持续努力。未来,随着市场需求的不断增长,这些公司的竞争格局可能会进一步变化,带来更多创新和机遇。 图38:AIGC应用市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 业务建议与风险提示 5.1业务建议 (本部分有删减,招商银行各行部请联系研究院查阅原文) 图39:AIGC产业链布局策略资料来源:招商银行研究院 5.2风险提示 (1)伦理道德的风险。可能加剧社会不平等,侵犯隐私,存在算法偏见和道德争议,若处理不当可能引发法律问题。 (2)技术缺陷的风险。算法和模型可能存在缺陷,导致生成内容质量低或被恶意利用,进而造成信息泄露及人类对技术的过度依赖。 (3)监管与法律的风险。各国可能出台新的监管政策,企业需时刻关注并遵循,以避免法律风险。 (4)商业化不确定的风险。技术瓶颈和应用局限可能影响商业化进程,给企业带来风险。 (5)市场竞争加剧的风险。行业内竞争激烈,技术更新迅速,可能影响行业的健康发展。 (6)宏观经济波动的风险。宏观经济波动可能影响投资决策和市场需求,从而影响AIGC行业的整体发展。 -END- 本期作者 胡国栋 行业研究员 huguodong@cmbchina.com 转载声明: 1、本报告为招商银行研究院已发布报告的公开版本,报告内容均为原创。 2、如需转载,请提前征得本公众号授权。转载时需要保留全文所有内容,请勿对本报告进行任何有悖原意的引用、删节和修改。 3、转载时请注明出处为“招商银行研究院(ID:zsyhyjy)”,并在“原文链接”中保留原始公众号文章链接。 4、授权方式:请参照文末方式联络招商银行研究院。 注意:未经招商银行事先授权,任何人不得以任何目的复制、发送或销售本报告。 招商银行版权所有,保留一切权利。 责任编辑|余然
■ 人工智能的发展历程与AIGC的市场机遇。人工智能的发展经历了三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演进。AIGC利用生成式AI技术,创造出多样化的内容,展示出巨大的商业潜力。AIGC产业链可划分为基础层、模型层和应用层。预计到2030年,AIGC市场规模将增至9810亿美元,推动全球经济增长4.9万亿美元,累计产生的经济影响达到19.9万亿美元。 ■ 基础层:AIGC的快速发展推动算力需求激增,算力存储网络成为投资的主赛道。随着AIGC技术的快速发展,特别是基于Transformer的大模型对算力需求急剧增加,全球互联网巨头纷纷加大对AIGC基础设施的投资,以推动创新和保持竞争优势。GPU系统、HBM存储和高性能网络基础设施在AIGC计算中发挥着关键作用,满足了对高速并行计算的需求,成为硬件基础设施投资的主赛道。 ■ 模型层:算法进步、性能成本优化与商业模式多元化的融合。AIGC技术的进步得益于生成算法、预训练模型和多模态技术的创新。在大语言模型的竞争中,性能和成本是两个核心要素,性能的提升和成本的降低使得AIGC的应用更加广泛。AIGC公司通过订阅服务、API接入等多元化商业模式来拓展收入渠道,从而增强自身的市场竞争力。随着企业逐渐认识到AIGC技术的潜力,预计B2B服务将在整体AIGC市场中占据主导地位。全球大语言模型市场将显著增长,OpenAI凭借ChatGPT的成功在市场上处于领先地位,而科技巨头如微软、亚马逊和谷歌也正通过技术创新和产品整合来追赶。 ■ 应用层:技术创新应用推动市场发展和行业变革。AIGC技术正推动ToC和ToB领域的创新与多元化应用,覆盖Chatbot、社交、游戏和内容创作等多个场景,并在企业层面提供提高效率、降低成本的解决方案。在电子设备领域,AIGC技术引发革新,特别是在智能手机、汽车和人形机器人的智能化创新中表现突出。各类AIGC应用爆发式增长,其中AI广告市场份额最大,药物研发、网络安全和IT服务市场增速最快。 ■ 业务建议。随着市场需求的不断增长,AIGC应用有望在多个行业实现突破,带来长远的发展机会,建议重点关注AIGC应用的长期机会。(本部分有删减,招商银行各行部请联系研究院查阅原文) ■ 风险提示。(1)伦理道德的风险。(2)技术缺陷的风险。(3)监管与法律的风险。(4)商业化不确定的风险。(5)市场竞争加剧的风险。(6)宏观经济波动的风险。 正文 AIGC是一种基于生成式AI技术的新型内容创作方式。本篇报告围绕AIGC的发展历程与市场机遇、算力基础设施的发展趋势、大模型算法与商业模式的融合以及AIGC应用市场的创新发展来分析AIGC产业链的相关机会,最后阐明商业银行在AIGC赛道的业务机会与风险。 人工智能的发展历程与AIGC的市场机遇 1.1 人工智能产业发展历程,从图灵测试到生成式AI的演进 人工智能(Artificial Intelligence, AI)作为计算机科学的一个重要分支,旨在深入探讨智能的本质,创造出能够模拟人类思维与反应的智能机器。经过多年的不断进化,人工智能如今已演变为一门涵盖机器人技术、语言识别、图像识别、自然语言处理及专家系统等多个研究领域的综合性学科。 人工智能的历史可以追溯到20世纪50年代。1950年,被誉为“人工智能之父”的艾伦·图灵(Alan Turing)提出了著名的图灵测试,借助“问”与“答”的方式来评估机器是否具备智能。1956年,约翰·麦卡锡(John McCarthy)在达特茅斯会议上首次正式提出“人工智能”这一术语,这一时刻标志着人工智能作为一门独立学科的诞生。 图1:人工智能发展历史时间线资料来源:招商银行研究院 人工智能的发展历程可以划分为三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演进。第一次浪潮(1950s-1970s)期间,研究主要集中在利用符号逻辑和推理来模拟人类智能,然而由于对技术能力的期望过高与实际进展之间的落差,到70年代中期,人工智能进入了“第一次AI之冬”。在第二次浪潮(1980s-2000s)期间,随着计算能力的提升和知识表示技术的发展,专家系统在20世纪80年代兴起,能够模拟特定领域的专家决策能力。90年代,机器学习这一分支迅速崛起,使计算机能够从数据中学习并不断改进。第三次浪潮(2010s-至今)以来,现代人工智能技术广泛应用,如卷积神经网络(CNN)、递归神经网络(RNN)和生成对抗网络(GAN)等,特别是在自然语言处理(NLP)领域的突破,例如BERT和GPT系列模型,使得机器在理解和生成自然语言方面取得了显著进展。 机器学习是人工智能的一个重要分支,使计算机系统能够从数据中汲取知识,进而做出预测或决策。该领域涵盖多个子领域,包括监督学习、无监督学习和强化学习等。监督学习通过利用带标签的训练数据来训练模型,使其能够对未见过的数据进行标签预测,常见算法有逻辑回归、支持向量机(SVM)、决策树和随机森林、神经网络等。无监督学习处理未标记的数据,旨在发现数据的内在结构或模式,常见的算法包括K-均值聚类、层次聚类和主成分分析(PCA)等。强化学习通过与环境的交互学习如何采取行动,以实现长期奖励最大化,常见算法包括Q学习、Sarsa和深度Q网络(DQN)等。机器学习的应用领域非常广泛,涵盖自然语言处理、计算机视觉、医疗健康、金融及推荐系统等多个领域。 图2:人工智能技术发展经历三次浪潮资料来源:infoDiagram、招商银行研究院 图3:人工智能技术路线关系图资料来源:CSDN、招商银行研究院 深度学习作为机器学习的一个重要分支,专注于利用深层神经网络解决复杂问题。它受人脑生物神经网络的启发,构建了由许多简单神经元组成的系统。每个神经元负责接收输入信号,进行加权求和,并通过激活函数生成输出。深度学习通过多层次的神经网络结构,能够自动提取数据的深层次特征。常见的算法包括前馈神经网络(FNNs)、卷积神经网络(CNNs)、循环神经网络(RNNs)以及Transformer等。深度学习的应用领域广泛,涵盖图像识别、语音识别、自然语言处理、生成模型、游戏与强化学习等,已成为当今人工智能技术的核心驱动力。 生成式AI(Generative AI)作为深度学习的一个重要分支,是一种能够基于用户请求创造原创内容的人工智能技术。它通过深度学习模型识别现有内容的模式和结构,这些模型在未标记的原始数据上进行训练,旨在发现并编码大量数据中的模式与关系,以理解自然语言请求并生成相应的新内容。生成式AI的应用领域极为广泛,涵盖文本生成、图像合成、音乐创作以及语音合成等多个方面。 1.2 生成式AI技术推动内容创作的变革与大语言模型的发展 AIGC(Artificial Intelligence Generated Content)是一种利用生成式AI技术自动创作内容的新型生产方式。与传统AI主要关注于识别和预测现有数据模式不同,AIGC则专注于创造全新的、有创意的数据。其核心原理在于学习和理解数据的分布,从而生成具有相似特征的新数据,能够生成文本、图像、音频、视频等多种形式的内容。 图4:AIGC与大型AI模型的关系资料来源:《AIGC的挑战和解决方案》、招商银行研究院 AIGC涵盖了利用生成式AI技术生成的多种类型内容,而大型AI模型则是实现AIGC的重要技术手段。生成式AI通过深度学习模型在大数据集上进行训练,以创造新的文本、图像和音乐等多样化的内容。AIGC不仅包括生成式AI算法,还涉及自然语言处理、计算机视觉(CV)和音频处理等核心技术。在生成式AI的框架中,大型AI模型发挥着至关重要的作用,通常采用大量参数的神经网络架构,主要包括大语言模型(LLM)、大多模态模型(LMM)和大视觉模型(LVM)。其中,大语言模型是最为核心的类型,包含数十亿以上参数的深度神经网络语言模型,运用自监督学习方法,通过大量未标注的文本进行预训练,从而掌握语言的复杂结构。需要注意的是,并非所有的大语言模型都专注于生成任务,有些模型(如BERT)更适合理解任务,而其他模型(如GPT系列)则更擅长生成任务。 大语言模型的发展经历了基础模型、能力探索和突破发展三个阶段。2017年,Vaswani等人提出的Transformer架构为大语言模型的演进奠定了坚实基础。自2018年以来,Google、OpenAI和Meta等公司相继推出了多种大语言模型,如OpenAI的GPT系列、Google的Gemini和Meta的LLaMA系列,推动了这一领域的迅猛发展。 图5:大语言模型发展时间线资料来源:《A Survey of Large Language Models》、招商银行研究院 在基础模型阶段(2018年至2021年),研究主要集中在语言模型本身,Google的BERT和OpenAI的GPT-1标志着预训练语言模型时代的开启,模型参数量实现了数量级的提升,从GPT-1的1.17亿增加到GPT-3的1750亿,这使得大模型在自然语言任务中的表现极为出色。 在能力探索阶段(2019年至2022年),研究者们探索如何在不针对单一任务进行微调的情况下,充分发挥大语言模型的能力,随后引入指令微调方案(Instruction Tuning),使模型在特定任务上的表现更加精准,同时保留了在其他任务上的泛化能力。 在突破发展阶段(2022年11月至今),大语言模型向多模态持续进阶,模型能力不断扩展,从文本生成延伸到图像和视频生成。自ChatGPT于2022年推出以来,它迅速在全球范围内引发了AIGC的广泛关注与应用热潮。以ChatGPT为起点,一个大语言模型即可实现回答问题、文稿撰写、代码生成和数学解题等多项能力,这在过去需要多个小模型才能分别实现。GPT-4作为一款开创性的多模态模型,凭借其卓越的综合实力成为行业标杆,后续推出的GPT-4V、GPT-4-Turbo和GPT-4o在性价比上不断提升。此外,Sora文生视频模型能够根据文本提示生成视频内容,并对现有图像或视频进行编辑和扩展。 1.3 AIGC产业链结构与未来市场增长展望 AI产业链可分为基础层、模型层和应用层三个层面。基础层提供AI运行所需的底层算力资源和数据资源,其中算力资源涵盖AI芯片、存储、网络、安全及基础设施软件,数据资源则包括AIGC模型训练和优化所需的大量高质量多模态数据,以及数据分类、标记和清洗过滤的技术手段。模型层负责开发和优化模型算法,包括通用AIGC模型、行业应用微调模型,以及监督学习、无监督学习和强化学习等训练模型。应用层则涵盖针对企业的专用模型应用和针对个人用户的个性化服务,涉及文本、图像、音频、视频及多模态内容等多个应用服务方向。 图6:AIGC产业链生态体系资料来源:招商银行研究院 AIGC技术展现出巨大的商业潜力,将成为全球经济增长的重要推动力。根据IDC的研究,到2030年,与商业相关的AI解决方案每投入1美元,预计将为全球经济带来4.60美元的直接和间接经济效应。预计到2030年,企业在采用AI、将AI融入现有业务运营,以及向企业和消费者提供AI产品和服务的支出,将推动全球经济增长4.9万亿美元,累计产生的经济影响达到19.9万亿美元,占全球GDP的3.5%。彭博情报预测,随着ChatGPT等AIGC应用的快速增长,AIGC市场有望从2022年的370亿美元增长至2032年的1.36万亿美元,年均复合增长率达到43%。此外,AIGC在信息技术硬件、软件、服务和广告等领域的支出占比将从2022年的1%提升至2032年的12%。 图7:2020-2032年AIGC市场规模资料来源:Bloomberg Intelligence、招商银行研究院 受益于大模型算力需求,AIGC硬件市场预计将迎来显著增长。随着AIGC大模型参数量的快速增加、数据规模的扩展以及对长文本处理能力的提升,算力的需求持续上升。彭博情报预测,AIGC硬件市场将从2022年的350亿美元增长至2032年的6400亿美元,这一增长趋势反映了AIGC技术在训练和推理两个关键环节对算力资源的强大需求。 在训练阶段,AIGC模型需要处理和分析庞大的数据集,这通常要求大量算力资源。预计训练硬件市场规模将从2022年的320亿美元增长到2032年的4710亿美元,年均复合增长率为31%。而在推理阶段,通常需要较低功耗和成本的算力资源来满足用户终端的需求,预计推理硬件市场的增速将更高,从2022年的30亿美元增长至2032年的1690亿美元,年均复合增长率达到48%。 受益于AIGC对行业创新和效率的提升,AIGC软件应用日益广泛。AIGC技术正在改变影视、游戏、漫画和网络文学等领域,通过自动化和优化任务来提高生产效率并促进创意发展。例如,GitHub Copilot基于OpenAI技术,向开发人员提供编码建议,从而减少编程时间,提高开发效率。集成AIGC助手正在成为软件行业的趋势,能够通过自动化和优化多种任务增强用户的工作效率。彭博情报预测,AIGC软件市场将从2022年的10亿美元增长至2032年的3180亿美元,年均复合增长率高达71%。 图8:2020-2032年AIGC硬件市场规模资料来源:Bloomberg Intelligence、招商银行研究院 图9:2020-2032年AIGC软件市场规模资料来源:Bloomberg Intelligence、招商银行研究院 基础层:大模型的技术发展推动算力需求激增,算力存储网络成为投资的主赛道 2.1 AIGC技术迅猛发展引发算力需求激增 随着AIGC技术的迅猛发展,尤其是以Transformer为基础的大模型,对算力的需求激增。这些先进模型在训练和推理过程中,需要巨大的计算资源,包括高性能GPU、高速存储以及高速通信网络。自2017年Transformer模型问世以来,它已成为构建大型语言模型的基石。该模型摒弃了传统的循环神经网络结构,通过自注意力机制处理序列数据,实现了对整个数据序列的并行处理,从而显著提升了训练和推理的效率。然而,这一技术进步也带来了对更高算力的迫切需求,进而增加了模型训练和部署的成本。 根据英伟达的数据显示,在引入Transformer模型之前,算力需求每两年增长约8倍;而采用Transformer模型后,这一数字飙升至每两年增长约275倍。为了满足不断攀升的算力需求,数据中心正朝着超大规模的发展方向迈进,以提供更强大的计算能力和更优越的可扩展性。同时,AI服务器集群也在快速迭代与升级,以确保能够满足日益增长的算力需求。 根据Scaling-law法则,大语言模型的性能随着模型参数量、训练数据量和计算资源的增加而显著提升。从大模型的算力需求来看,随着参数规模、Token数量以及训练所需算力的同步增长,模型性能不断提升。以GPT-4为例,其参数量从GPT-3的约1750亿提升至约1.8万亿,增幅超过10倍;而训练数据集的规模也从GPT-3的几千亿Token扩大到13万亿Token。这种规模上的提升使得GPT-4在处理复杂问题和生成自然语言文本方面的能力得到了极大的增强。 图10:AIGC大模型对算力需求持续快速增长资料来源:英伟达、招商银行研究院 随着AIGC大模型性能的显著提升,对计算资源的需求也呈现出指数级的增长。以GPT-4为例,其训练过程需要约2.15e25 FLOPS的运算量,这通常需要动用约25000块A100 GPU,且训练周期长达90至100天。此外,数据采集、模型优化和强化学习等环节的额外开销,使得整体成本变得更加高昂。根据斯坦福大学2024年发布的AI指数报告,AIGC模型的训练成本正在急剧上升,GPT-4的成本从2022年GPT-3的大约430万美元激增至2023年的7835万美元。随着模型的不断扩展和训练过程的日益复杂,这些成本预计将继续攀升。 表1:LLM模型对GPU算力需求持续提升资料来源:公开资料、招商银行研究院 2.2 互联网巨头加速AIGC投资,以推动创新和竞争 根据海外互联网巨头的资本开支计划,亚马逊、微软、谷歌和Meta等公司正在持续增加对AIGC基础设施的大规模投资。2021至2023年间,这些公司的总资本支出达到4670亿美元,年均约1550亿美元。在2024年第二季度,资本支出达到520亿美元,同比增长54%,主要用于数据中心的AIGC建设,以推动产品转型和技术升级。展望未来,预计在2024至2027年间,这四家公司将投入总额8500亿美元,年均2125亿美元,助力在竞争激烈的AIGC市场中保持领先地位并推动创新与增长。 图11:海外互联网巨头资本支出飙升资料来源:GeekWire、招商银行研究院 从海外互联网巨头的管理层表态来看,针对AIGC领域的高额资本支出将持续一段较长时期。Meta CEO马克·扎克伯格强调维持AI行业领头羊地位的紧迫性,并警告投资不足可能在未来10至15年内使Meta处于竞争劣势。谷歌CEO桑达尔·皮查伊表示,公司倾向于超额投资,以确保抓住AI领域的收入机会,即使面临一定的资源过剩风险。亚马逊CFO布莱恩·奥尔萨夫斯基预计,2024年下半年资本支出将持续增长,主要投资用于满足AIGC及非生成式AI技术的市场需求。微软CFO艾米·胡德则宣布,将加大AI基础设施建设投入,预计在2025财年刷新资本支出记录,以应对不断攀升的AIGC和云服务产品需求。 无论是在全球还是中国市场,AIGC领域的投资都在迅速增长。IDC数据显示,全球AI资本支出预计将从2022年的1325亿美元增长到2027年的5124亿美元,年均复合增长率为31.1%。在中国市场,AI资本支出同样展现出强劲的增长势头,预计将从2022年的128亿美元增至2027年的400亿美元,年均复合增长率为25.6%。中国将在亚太地区人工智能市场发展中继续发挥引领作用,其AI资本支出占亚太地区总支出的50%。 图12:中国AIGC市场资本支出预测资料来源:IDC、招商银行研究院 2.3 算力:GPU引领AIGC技术革新,市场需求持续增长 当前,人工智能领域的AI芯片家族日益壮大,主要包括GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)和NPU(神经拟态芯片)。其中,GPU和FPGA属于成熟的通用型AI芯片,而ASIC则为特定AI场景定制,如谷歌的TPU、亚马逊的Trainium和微软的Maia。 GPU最初设计用于加速图形渲染和显示,广泛应用于游戏、视频制作和处理等领域。随着时间推移,因其在并行处理密集数据方面的卓越能力,GPU逐渐成为AI领域的重要推动力,尤其是在深度学习训练中。其核心性能指标包括算力、显存、功耗和互联能力,成为推动AIGC发展的核心力量。 英伟达的GPU产品在AIGC的发展历程中扮演了至关重要的角色,其成功源于在硬件性能和软件生态方面的持续投入与创新。在硬件领域,英伟达推出了Volta、Turing、Ampere、Hopper和Blackwell等系列架构,这些架构配备了专为深度学习设计的CUDA Core和Tensor Core,显著提升了AI训练与推理的效率。CUDA Core负责基础运算,其数量通常与FP32计算单元相对应;而Tensor Core则在Volta及后续架构中引入,专门用于张量计算,与深度学习框架(如TensorFlow和PyTorch)结合使用,带来了十几倍的效率提升。除了硬件创新,英伟达还构建了全面的GPU软件生态系统,包括CUDA、cuDNN和TensorRT等工具,大大简化了AIGC模型的开发和部署流程,使得AIGC技术的应用更加高效便捷。 表2:英伟达主流GPU产品性能对比资料来源:英伟达、招商银行研究院 随着AIGC技术在多个行业中的广泛应用,对GPU和ASIC算力的需求持续增加。全球数据中心GPU市场在近年来显著扩张,2023年出货量达到385万颗,较2022年的267万颗增长了44.2%。预计在经历2023年和2024年的大幅增长后,全球AIGC GPU和ASIC市场将保持稳定增长。根据Yole的预测,该市场规模将从2023年的505亿美元增至2029年的2330亿美元,复合年均增长率达到29.0%。 英伟达作为GPU市场的领导者,其产品在AIGC训练和推理市场占据主要份额。英伟达不断推出新的GPU架构和软件产品,每一代产品都在性能和能效方面持续提升,其2023年数据中心GPU销售收入达到了362亿美元,根据IoT Analytics的数据,市场份额达到92%。与此同时,AMD和英特尔也在数据中心GPU市场占有一席之地,AMD的MI300系列获得了微软、Meta等订单,市场份额达到3%;英特尔的Gaudi 2则提供高性能且具成本效益的解决方案。此外,一些新兴参与者也在进入市场,推动技术创新与产品多样化。 图13:全球AIGC GPU和ASIC市场规模预测资料来源:Yole、招商银行研究院 图14:AIGC GPU市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 2.4 存储:HBM凭借高带宽和低延迟推动AIGC计算 HBM(高带宽存储器)是一种采用3D堆叠技术的DRAM,通过先进的硅通孔(TSV)封装方法,能够实现高容量、高带宽、低延时和低功耗的特性。这种设计特别适用于高性能计算和图形处理,尤其是在AIGC计算中,HBM与GPU的结合极大提升了并行数据处理速度。 在AIGC计算中,GPU需要处理大量并行数据,要求具备高算力和大带宽。通过中介层与HBM的互联封装,HBM的高带宽特性为GPU提供了充足的内存带宽,支持其高速数据处理需求,从而加速AIGC模型的训练和推理过程。 HBM存储技术自2013年SK海力士首次推出HBM1以来,经历了多次重要的产品迭代,包括HBM2、HBM2E、HBM3和最新的HBM3E。每一代产品在容量、带宽和功耗效率上都有显著提升,其中HBM3E提供高达9.2Gbps的I/O传输速度和超过1280GB/s的带宽。展望未来,预计HBM4将在2026年上市,将支持更广泛的内存层配置,以更好地满足不同类型的应用需求。 图15:HBM 3D堆叠与GPU封装架构资料来源:Tech Investments、招商银行研究院 图16:HBM技术路线图资料来源:SK海力士、招商银行研究院 AIGC的迅猛发展正在刺激数据中心对高速DRAM内存的需求持续增长。随着超大规模企业不断扩展服务器容量以支持大语言模型的训练和推理任务,高速DRAM和HBM的需求也显著上升。数据中心已成为DRAM需求最大的细分市场,占据整体市场份额的50%。预计随着HBM和CXL(Compute Express Link)等新技术的普及,数据中心DRAM市场的增速将超过整体DRAM市场。根据Yole Group的预测,DRAM市场将从2023年的520亿美元增长到2029年的1340亿美元,复合年均增长率为17%,而数据中心DRAM在2023-2029年间的复合年增长率将达到25%。 在全球DRAM市场中,三星、SK海力士和美光占据了主导地位,三家公司合计市场份额高达94%。其中,三星以40%的市场份额继续稳居全球最大DRAM供应商,SK海力士和美光分别占有29%和25%的市场份额。 图17:存储行业全球市场规模预测(2023-2029)资料来源:Yole、招商银行研究院 图18:DRAM全球市场份额(2023)资料来源:Yole、招商银行研究院 随着AIGC算力需求的持续上升,全球HBM市场正经历快速增长。根据Yole Group的分析,全球HBM市场预计将从2023年的55亿美元增长至2029年的377亿美元,复合年均增长率达37.8%。HBM市场增速将显著超过整体DRAM市场,HBM在整体DRAM出货量中的占比预计将从2023年的2%增长到2029年的6%,营收占比将从2023年的10.4%增长到2029年的32.8%。 SK海力士在HBM市场中占据领先地位。SK海力士在HBM的开发和商业化方面处于领先地位,是HBM3的主要供应商,也是Nvidia H100和H200的唯一供应商。三星主要生产HBM2E,并计划开始生产HBM3。美光则跳过HBM3,直接推出HBM3E。根据TrendForce的数据,2023年SK海力士、三星、美光在HBM市场的份额分别为55%、41%、9%。 图19:HBM全球市场规模资料来源:Yole、招商银行研究院 图20:HBM全球市场份额(2023)资料来源:TrendForce、招商银行研究院 2.5 网络:高性能网络基础设施推动AIGC发展,高速率光模块需求激增 在AIGC算力架构中,高性能网络基础设施扮演着至关重要的角色。网络瓶颈可能导致GPU集群的利用率降低、大模型训练时间延长及训练成本增加。因此,为了满足AIGC计算的需求,尤其是在大规模GPU集群中,亟需大量高效的网络交换设备,以支持高速率、低时延、高吞吐量和高能效的数据传输。800G/1600G网络技术的发展,能够提供更高的数据传输速率和更低的传输时延,从而加速AIGC模型的训练与推理过程。 图21:AIGC发展推动数据中心向800G以上速率发展资料来源:FS、招商银行研究院 AI集群的快速发展正推动光模块需求的迅速增长。随着GPU性能提升和AIGC应用扩展,对光模块的数量和速率需求持续增加。以英伟达DGX H100的二层网络架构为例,每个H100 SuperPOD包含4个SU扩展集群,每个SU扩展集群由32个H100服务器和8个Leaf交换机组成,整个SuperPOD共有1024个GPU、32个Leaf交换机和16个Spine交换机。在Leaf层,服务器侧采用400G光模块,交换机侧采用800G光模块,总共需1024个400G光模块和512个800G光模块。在Spine-Leaf层采用800光模块互联,共需1024个800G光模块。在该架构下,GPU与400G光模块的比例为1:1,与800G光模块的比例为1:1.5。当系统升级到DGX H100三层网络架构时,GPU升级至800G网卡,Leaf和Spine-Leaf层均采用800G光模块互联,导致光模块需求显著增加,GPU与800G光模块的比例增至1:6。随着英伟达新一代Blackwell架构平台的发布,无论是小型GB200集群还是大型GB200集群,对800G光模块的需求比例均有所上升:小型集群的GPU与800G光模块比例达到1:2,而大型集群则为1:4.5。 表3:英伟达GPU与光模块需求测算资料来源:Fibermall、英伟达、招商银行研究院 AIGC技术的迅速发展正在引领光模块市场的扩张。2023年5月,谷歌和英伟达成为首批显著增加光模块采购以支持AIGC数据中心的大客户,随后其他领先的云计算公司也纷纷加入光模块竞争。根据LightCounting的预测,用于AI集群的光模块市场预计将从2023年的20亿美元增长至2029年的120亿美元,年均复合增长率达到34.8%。在2025至2029年间,该市场规模将超过520亿美元。 随着AIGC大模型训练对更快数据传输的需求不断上升,高速光模块的需求随之激增。预计到2024年,800G光模块将成为市场主流,1.6T光模块也将进入试产阶段。预计到2029年,1.6T和3.2T光模块的市场规模将达到100亿美元,成为AI集群光模块市场的主要组成部分。 图22:全球光模块市场预测资料来源:Yole、招商银行研究院 图23:AI集群光模块市场预测资料来源:LightCounting、招商银行研究院 中国厂商在全球光模块市场中表现卓越。根据LightCounting的数据,2023年,全球前十大光模块厂商中,中国企业占据了7个席位,合计市场份额超过50%。多家中国厂商已成功进入英伟达的供应链。其中,中际旭创的市场份额位居全球第一,华为、光迅科技、海信、新易盛、华工正源、索尔思光电分别排名第三、第五、第六、第七、第八和第九位。进入2024年,全球主要光模块厂商业绩的变化进一步显示出市场份额向中国厂商的集中趋势。尽管中国厂商在光模块制造领域取得了显著进展,然而在光芯片和电芯片等关键原材料方面,仍然依赖进口,国产化程度亟待提高。 表4:全球TOP10光模块厂商排名资料来源:LightCounting、招商银行研究院 模型层:算法进步、性能成本优化与商业模式多元化的融合 3.1 生成算法、预训练模型与多模态技术催生AIGC的迅猛发展 AIGC与以往的AI技术最显著的区别在于其从分析式AI(Analytical AI)发展为生成式AI。分析式AI模型主要通过对已有数据的分析、判断和预测来提供决策支持,而生成式AI模型则是通过学习已有数据,创造出全新的内容。这一转变得益于先进的生成算法、强大的预训练模型以及创新的多模态技术,共同推动了AIGC的迅猛发展和爆炸性增长。 AIGC的快速崛起得益于基础生成算法的持续创新与突破。核心生成算法,如生成对抗网络(Generative Adversarial Network,GAN)、扩散模型(Diffusion Model)和Transformer等,为AIGC的发展奠定了坚实的技术基础。这些算法的不断进步推动了AIGC的爆发,拓展了其在内容生成领域的应用潜力。 2014年,伊恩·古德费洛提出的生成对抗网络(GAN)成为早期最著名的生成式模型,标志着生成式AI的重要里程碑。随之而来,诸如DCGAN、Style -GAN、BigGAN和CycleGAN等变种架构相继问世,这些发展不仅推动了GAN理论的深化,也为图像生成、视频生成和三维模型生成等领域提供了强大的工具,极大丰富了生成式AI的应用场景。 2017年,Vaswani等人提出的Transformer模型引入了自注意力机制,使得模型能够根据输入序列中的不同部分分配不同的注意权重,从而更有效地捕捉语义关系。这一创新催生了众多变体,如BERT、GPT和XLNet等,这些模型在各自领域取得了显著成果,推动了自然语言处理等行业的发展。伴随着生成式算法的不断创新突破,AIGC如今能够生成多种类型的内容和数据,包括文本、代码、图像、语音和视频物体等,展现了广泛的应用潜力。 表5:主流生成算法模型资料来源:公开资料、招商银行研究院 预训练模型的出现为AIGC技术带来了颠覆性的进步。尽管过去各种生成式模型层出不穷,但由于任务类型单一、使用门槛高、训练成本昂贵以及内容质量不足,难以满足复杂多变的应用场景。预训练模型,也称为基础模型或大模型,通过在大规模数据集上进行训练,学习到丰富的特征表示,展现出更强的泛化能力和深入的语言理解及内容生成能力。这些模型具备通用特征学习、迁移学习、多任务学习和领域适应等关键特性,显著增强了AIGC的通用化能力,使同一模型能够高质量完成多种内容输出任务。通过在特定领域数据上进行微调,模型能够迅速适应并掌握新领域的特定特征,极大提升了其实用性和灵活性。 2018年,谷歌推出了基于Transformer架构的自然语言处理预训练模型BERT,标志着人工智能领域进入了一个以大规模预训练模型参数为核心的新纪元。BERT的核心创新在于其双向训练策略,能够同时考虑单词左侧和右侧的上下文信息,使得其在理解单词含义时更为精准。通过在大量文本数据上的预训练,BERT学习到了深层次的语言表示,这些表示可以迁移到多种下游NLP任务中,如文本分类、问答系统和命名实体识别等。BERT通过微调(Fine-tuning)进一步适应特定任务的需求,极大地提升了自然语言处理的效果和应用广度。 图24:预训练模型BERT结构图资料来源:谷歌、招商银行研究院 多模态技术的发展推动了AIGC内容的多样性,增强了模型的通用化能力。该技术使不同类型的数据(如文本、图像、音频和视频)能够互相转化和生成,从而使AIGC模型能够跨模态生成各种类型的内容。CLIP(Contrastive Language-Image Pretraining)模型是OpenAI提出的一种典型多模态预训练模型。其核心思想是利用大规模的图像和文本数据进行自监督学习,使模型能够在没有明确标注的情况下理解和关联不同模态的数据。CLIP能够将图像和文本映射到同一个向量空间,促进了不同模态数据的理解与关联,为文生图、文生视频等AIGC应用的快速发展奠定了基础。 一个典型的多模态大型语言模型(MLLM)可以抽象为三个核心模块:预训练的模态编码器(Modality Encoder)、预训练的大型语言模型,以及连接它们的模态接口(Connector)。类比于人类,模态编码器相当于接收和预处理光学/声学信号的人类眼睛和耳朵,而大型语言模型则像是理解并推理处理信号的人类大脑。在这两者之间,模态接口的功能是对齐不同的模态。以GPT-4V为代表的多模态大型语言模型在多模态任务中展现出了前所未有的能力。随着技术的不断进步,多模态模型将在更多领域发挥重要作用。 图25:典型多模态大模型架构示意图资料来源:IEEE、招商银行研究院 3.2 性能与成本:大语言模型竞争的核心驱动力 大语言模型的竞争主要集中在两个核心要素上:性能和成本。性能决定了模型能够处理的任务复杂度和准确性,而成本则影响模型的商业可行性和普及程度。这两者的平衡将直接影响大语言模型在市场上的竞争力与应用广度。 硬件性能的提升与软件算法的创新共同推动了大语言模型的不断提升。在硬件方面,GPU性能的增强显著提升了模型的训练和推理能力,得益于半导体工艺的进步和持续的GPU设计创新,这使得复杂任务的处理更快速高效。软件方面,创新算法如Chinchilla的最优缩放、人类反馈强化学习(RLHF)、推测解码(Speculative Decoding)和Flash Attention等,为大模型的发展注入了新的活力。例如,Chinchilla通过合理分配模型大小和训练数据量,优化了有限计算资源下的模型训练;Llama2利用RLHF方法,确保输出更符合用户期望;推测解码实现了推理速度的显著提升;而Flash Attention则通过优化注意力机制,提高了GPT模型的训练速度。这些因素的结合使得大语言模型在性能和效率上不断取得突破。 图26:大模型训练性能不断提升资料来源:ARK、招商银行研究院 随着训练成本的不断下降,AIGC的应用正变得越来越普及。赖特定律(Wright‘s Law)表明,当一种产品的累计产量翻倍时,其单位成本将下降一个固定百分比。在AIGC领域,尤其是大模型训练中,GPU硬件性能的提升和算法优化对成本降低起到了关键作用。根据ARK的分析,随着硬件技术的不断进步,AI相对计算单元(RCU)的成本预计每年将降低53%,而模型算法的增强预计每年可使训练成本降低47%。预计到2030年,硬件和软件的融合将使AIGC训练成本以每年75%的速度下降。这一显著的成本降低将推动AIGC技术的普及与经济性,从而促进AIGC的广泛应用和创新。 图27:AIGC训练硬件成本趋势资料来源:ARK、招商银行研究院 图28:AIGC训练软件成本趋势资料来源:ARK、招商银行研究院 随着LLM公司之间竞争的加剧,AIGC的推理成本正迅速降低。AIGC模型在处理输入和输出时,其计算资源消耗与输入输出的数据量成正比,费用计算基于输入输出的Token数量,这种计费方式为不同用户提供了灵活性。 以OpenAI为例,在过去两年里,它将API访问成本降低了99%。具体来看,GPT-3的API推理成本从2021年的每千Token 0.06美元降至2022年的0.02美元,降幅达66%。到2023年,GPT-3.5 Turbo的API推理成本与2021年相比下降了86%。同时,GPT-4 Turbo的API推理成本与GPT-4-32k相比降低了92%,其成本甚至低于一年前的GPT-3。 值得注意的是,这一推理成本的降低是在提供更长的上下文、更低的延迟和更新知识截止日期的情况下实现的。微软CEO纳德拉认为,与摩尔定律类似,AI领域也存在Scaling Law(尺度定律),在AI时代,衡量单位是“每美元每瓦特的Token数”。这种竞争态势将进一步推动AIGC技术的普及与应用。 图29:GPT API推理成本快速下降资料来源:ARK、招商银行研究院 3.3 AIGC市场快速增长推动多元化商业模式与竞争格局演变 AIGC大模型公司正在通过多元化商业模式开拓收入渠道,目前主要集中在订阅服务和API接入两种模式。 1.订阅服务:用户支付月费或年费以享受持续的服务。例如,OpenAI的ChatGPT Plus订阅服务目前每月收费20美元,预计在2024年底提价至22美元。截至2024年9月,ChatGPT Plus已拥有1000万订阅用户。 2.API接入模式:企业将API服务整合至其应用程序中,并根据使用情况付费。OpenAI的API定价因模型和使用情况而异,通常根据输入输出的Tokens进行差异化定价。 此外,OpenAI还与Microsoft Azure合作,为大规模企业提供定制化的专用实例,价格层次丰富,满足不同企业的需求。这种多元化的商业模式不仅为AIGC公司带来了稳定的收入来源,也使其能够更好地服务于不同类型的用户和市场。 除了订阅和API接入,大模型公司还在积极探索其他多种商业模式,包括: 1.企业定制服务:大模型公司为特定企业需求提供个性化解决方案,深度集成特定应用场景或行业需求,帮助企业实现更高效的业务流程。 2.软件授权:这种模式允许公司出售技术使用权,特别适合那些需要在本地部署解决方案的企业。这使得客户能够根据自身的安全和合规要求来管理和使用模型。 3.内容许可:大模型公司与机构合作,获得内容许可以训练模型。这种合作可以增加训练数据的多样性,提高模型的表现。 4.合作伙伴关系:建立与大型科技公司的紧密合作关系,例如OpenAI与Microsoft的合作,涉及技术集成和新产品共同开发。这种合作不仅为大模型公司带来额外收入,还能够提升其技术能力和市场竞争力。 通过这些多元化的商业模式,大模型公司能够更灵活地适应市场需求,拓宽收入来源,提高自身的市场竞争力。 随着越来越多的企业认识到AIGC技术的潜力,B2B市场的需求预计将持续增长。根据OpenAI的收入构成,2023年其B2C和B2B业务各占一半。预计到2024年,OpenAI的收入将达到约37亿美元,2025年将大幅增至116亿美元。这一增长主要得益于ChatGPT订阅用户的增加以及企业API和定制解决方案的使用。B2C市场规模预计将达到100亿至200亿美元,但市场占有率预计不足10%。B2B市场规模预计高达2000亿美元以上,且市场占有率超过90%。这一比例显示出B2B服务在整体AIGC市场中的主导地位。 图30:AIGC大模型长期潜在市场与收入结构预测资料来源:Kelvin Mu、招商银行研究院 随着AIGC技术的快速发展,大模型平台市场正在经历显著增长。AIGC技术的不断进步和应用领域的持续扩展,促使越来越多的企业采用大模型平台来构建和扩展其应用程序。2022年底ChatGPT的公开发布,成为推动行业增长的重要催化剂。根据Market.US的预测,全球大语言模型市场规模将从2023年的45亿美元增长到2033年的821亿美元,复合年增长率为33.7%。中国市场同样展现出强劲的增长潜力。前瞻产业研究院的预测显示,中国大语言模型市场规模将从2023年的147亿元增长到2029年的1186亿元,复合年增长率为41.6%。 图31:全球大语言模型市场规模预测资料来源:Market.US、招商银行研究院 图32:中国大语言模型市场规模预测资料来源:前瞻产业研究院、招商银行研究院 在大语言模型市场,OpenAI凭借其卓越的技术成为市场的领头羊。根据IoT Analytics的分析,OpenAI在推出ChatGPT短短两个月内便实现了月活跃用户数突破1亿,成为有史以来用户增长速度最快的消费级应用程序。凭借ChatGPT的成功,OpenAI在大语言模型市场中以39%的市场份额处于领先地位。紧随其后的是科技巨头微软(30%)、亚马逊(8%)和谷歌(7%)。此外,一些领先的AI创业公司,如AI21 Labs、Anthropic和Cohere等,也占据了一定的市场份额。 图33:大语言模型市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 互联网科技巨头正通过持续的技术创新和产品整合,努力追赶并挑战OpenAI在大语言模型市场的领导地位。微软将OpenAI的功能集成到其多种产品中,包括Azure、Office 365和Bing。Azure AI平台提供了强大的工具集,允许客户选择不同的大语言模型,例如OpenAI的模型或Llama 2,并提供定制化的AI应用程序,增强了数据安全性。亚马逊的Bedrock专注于提供平台服务,支持客户访问多家AI公司的大语言模型,帮助他们更加灵活地构建和扩展生成式AI应用程序。谷歌的Gemini是一系列多模态模型,它被融入谷歌的产品体系,能够处理和组合各种数据类型。此外,谷歌的Vertex AI是基于云计算的AI平台,融合了最新的技术和能力,可以帮助企业快速实现AI应用的开发和部署。 应用层:技术创新推动应用市场发展和传统行业变革 4.1 AIGC技术加速ToC与ToB领域的创新与多元化应用 AIGC技术在面向消费者(ToC)和面向企业(ToB)领域都有广泛的应用场景。随着技术的持续演进和迭代,这些应用场景和商业模式正不断拓展和演变。 在面向消费者领域,AIGC技术满足了个人的日常生活需求,涵盖了如Chatbot、社交、游戏、教育和内容创作等多个场景。在社交娱乐方面,AIGC技术使普通用户能够以较低的门槛参与内容创作,激发创作灵感,用户可以通过AIGC创作画作、文本、歌曲等。在教育领域,AIGC技术被用于开发个性化的学习工具和课程,帮助学生更高效地学习。此外,在搜索引擎和内容推荐方面,AIGC技术利用自然语言生成和机器学习等技术,快速生成新闻报道和文章,并提供个性化的推荐服务。 在面向企业领域,AIGC技术为企业客户提供了多种解决方案,帮助提高效率、降低成本、创新产品,并增强市场竞争力。在办公领域,AIGC技术能够提升工作效率和质量,激发创意和乐趣,创造更便捷、高效和创新的办公体验。在内容生产和媒体方面,AIGC技术提供高效工具,提升内容产出效率和质量,降低生产成本。在广告营销领域,AIGC技术通过内容创新、制作成本节约和流程效率提升,推动营销效果的增强。在游戏开发方面,AIGC技术应用于智能NPC、场景建模和AI剧情等功能,提升游戏的创新性和玩家体验。在药物研发领域,AIGC技术在辅助诊断和药物研发过程中发挥着重要作用。 表6:常见的AIGC应用场景资料来源:招商银行研究院 AIGC应用产品种类繁多,其中Chatbot占据领先地位。根据AI产品榜的数据,全球市场上,ChatGPT的月访问量已突破30亿次,使其成为全球第十一大网站。从产品分布来看,AIGC赛道涵盖了多个领域,包括Chatbot、内容创作、翻译、搜索、教育和知识管理等。在国内市场,前十的应用主要以Chatbot为主,同时AI搜索的占比也在逐步提升。 表7:全球AIGC应用排名(2024年9月)资料来源:AI产品榜、招商银行研究院 4.2 AIGC技术驱动电子设备革新,大模型引领手机、汽车与机器人智能化创新 AIGC技术正引领一场新的科技革命,大模型在传统硬件设备中的应用日益广泛,为智能手机、汽车、机器人等多个产业链带来了全新的机遇。这些技术的融合不仅提升了设备的智能化水平,还推动了各行业在功能和效率上的创新,为用户提供更加个性化和高效的体验。 智能手机通过引入大模型资源,显著增强了用户的操作体验。利用API模式,智能手机可以集成ChatGPT等先进的大模型,实现个性化内容创造、智能语音助手和个性化推荐等方面的重大突破。AIGC技术能够根据用户的个性化需求,自动生成文本、图片、视频等多种内容,广泛应用于社交媒体、个人表达和商业领域。借助API与大模型的连接,智能语音助手变得更智能、更人性化,能够理解上下文,提供更流畅自然的对话,并执行更复杂的任务。此外,AIGC还可以通过API实时生成个性化内容推荐,例如个性化新闻、主动购物推荐和应用建议,为用户带来更加丰富和个性化的服务体验。 AIGC技术正以其革命性的力量推动手机硬件和操作系统重构,引发手机产业链生态的深刻变革。随着手机算力的显著提升和大模型的压缩与优化,操作系统有望采用边缘计算与本地推理相结合的创新方式,在高效手机上实现轻量级推理,同时将大部分计算任务放在云端。未来,更多的应用程序将通过调用AIGC API来实现内容生成、推荐系统和交互功能,从而减少传统手动编写内容的依赖,使开发者能够更专注于核心业务逻辑的构建。这种变革将带来更个性化的交互、更智能的任务管理以及实时生成的个性化内容。操作系统能够生成适应用户个人风格和需求的UI设计、动态壁纸和主题,可以根据用户的使用习惯自动安排任务,提供更加定制化服务。 图34:AIGC推动大模型与电子设备智能化升级资料来源:Yole、招商银行研究院 在汽车领域,AIGC技术正在推动自动驾驶技术的发展。AIGC涵盖了多个关键方面,包括训练数据生成、情境理解、路径规划、实时学习和用户交互等。通过这些技术的融合,自动驾驶系统能够更有效地应对复杂的道路环境,理解驾驶者的需求,并不断提升其智能化水平,为自动驾驶技术的发展提供重要支撑。特斯拉的FSD 12在感知能力、决策算法和用户交互等方面取得了显著提升,能够在特定地区和情况下支持更高级的自动驾驶功能。这为未来的完全自动驾驶奠定了更坚实的基础,使汽车不仅能够自动驾驶,还能更好地适应驾驶者的个性化需求和动态道路状况。 AIGC技术加速了人形机器人在智能化和多样化发展上的进步。借助AIGC,人形机器人不仅能执行简单任务,还能主动学习和理解用户需求,提供个性化服务。AIGC使人形机器人能够自然地理解和生成对话内容,模拟人类沟通方式,从而在交流中为用户提供更真实和智能的反馈。此外,AIGC还使人形机器人具备生成和识别视觉内容的能力,这提高了它们在教育、娱乐、医疗等领域的视觉理解能力。人形机器人能够通过AIGC不断从环境中学习,并生成复杂场景的应对策略,例如在制造业中优化生产流程,或在医疗领域辅助医生进行诊断。这种动态适应能力使人形机器人在多变的环境中更加灵活。随着AIGC的发展,人形机器人不仅能够服务于多种场景,还能适应不断变化的需求,推动其从单一功能向智能化、个性化助手的演变。 图35:特斯拉FSD自动驾驶路径规划 图36:2024年全球主流人形机器人 (图35~图36有删减,招商银行各行部请登录“招银智库”查阅原文) 4.3 AIGC应用市场正处于发展初期,竞争格局多元化且持续演变 根据彭博情报(Bloomberg Intelligence)的预测,随着各类AIGC应用的爆发式增长,AIGC应用市场的规模预计将从2022年的18.60亿美元增长到2032年的6618.14亿美元,年均复合增长率达到80%。在这一市场中,AI广告预计将占据最大市场份额,而药物研发、网络安全和IT服务市场的增速最快。同时,AIGC在科技领域的投入也将显著增加。信息技术硬件、软件、服务及广告等领域的AIGC支出预计将从2022年总支出的1%增长到2032年的12%。这一增长反映了AIGC在各个行业中的广泛潜力,尤其是在加速产品开发、自动化流程以及增强决策支持方面的应用。 图37:2022-2032年AIGC应用市场规模资料来源:Bloomberg Intelligence、招商银行研究院 AIGC市场正处于一个充满机遇与挑战的初期阶段。尽管近年来AIGC技术取得了显著进步,应用场景不断增加,但整体市场仍在探索和形成中。随着新模型和应用层出不穷,企业和开发者不断寻求更高效、更智能的解决方案,以满足不断变化的市场需求。AIGC的应用场景从内容创作、营销扩展到医疗、教育等多个领域,不同的行业对AIGC的需求和实现方式各不相同,企业正在探索最佳的整合方式。除了大型科技公司,许多初创企业也纷纷进入这一领域,推出各种创新的AIGC应用,进一步加剧市场竞争。随着技术的成熟和应用的深入,预计未来几年AIGC应用市场将迎来更大的发展和变革。 AIGC应用市场正呈现出多元化的竞争格局,发展态势持续演变。随着越来越多的初创企业和中小型公司进入市场,这些企业致力于推出针对特定行业的AIGC产品,如医疗、广告、金融和教育等领域的定制化应用工具。根据IoT Analytics的分析,2023年埃森哲以6%的市场份额在AIGC应用市场保持领先地位,并将AIGC技术整合到其咨询服务中,帮助客户实现数字化转型。IBM、Capgemini和Cognizant紧随其后,展现了这些公司在推动AIGC技术应用方面的持续努力。未来,随着市场需求的不断增长,这些公司的竞争格局可能会进一步变化,带来更多创新和机遇。 图38:AIGC应用市场份额(2023年)资料来源:IoT Analytics、招商银行研究院 业务建议与风险提示 5.1业务建议 (本部分有删减,招商银行各行部请联系研究院查阅原文) 图39:AIGC产业链布局策略资料来源:招商银行研究院 5.2风险提示 (1)伦理道德的风险。可能加剧社会不平等,侵犯隐私,存在算法偏见和道德争议,若处理不当可能引发法律问题。 (2)技术缺陷的风险。算法和模型可能存在缺陷,导致生成内容质量低或被恶意利用,进而造成信息泄露及人类对技术的过度依赖。 (3)监管与法律的风险。各国可能出台新的监管政策,企业需时刻关注并遵循,以避免法律风险。 (4)商业化不确定的风险。技术瓶颈和应用局限可能影响商业化进程,给企业带来风险。 (5)市场竞争加剧的风险。行业内竞争激烈,技术更新迅速,可能影响行业的健康发展。 (6)宏观经济波动的风险。宏观经济波动可能影响投资决策和市场需求,从而影响AIGC行业的整体发展。 -END- 本期作者 胡国栋 行业研究员 huguodong@cmbchina.com 转载声明: 1、本报告为招商银行研究院已发布报告的公开版本,报告内容均为原创。 2、如需转载,请提前征得本公众号授权。转载时需要保留全文所有内容,请勿对本报告进行任何有悖原意的引用、删节和修改。 3、转载时请注明出处为“招商银行研究院(ID:zsyhyjy)”,并在“原文链接”中保留原始公众号文章链接。 4、授权方式:请参照文末方式联络招商银行研究院。 注意:未经招商银行事先授权,任何人不得以任何目的复制、发送或销售本报告。 招商银行版权所有,保留一切权利。 责任编辑|余然
大部分微信公众号研报本站已有pdf详细完整版:https://www.wkzk.com/report/(可搜索研报标题关键词或机构名称查询原报告)
郑重声明:悟空智库网发布此信息的目的在于传播更多信息,与本站立场无关,不构成任何投资建议。