626969cm澳门

欢迎访问626969cm澳门(中国)股份有限公司官方网站!

一家集研发、生产和销售为一体的高新技术企业

20年专业经验 前沿技术研发新产品

626969cm澳门咨询热线:

+86-13510282288 +86-13510292288

626969cm澳门(中国)股份有限公司-行业资讯-从ChatGPT看芯片产业机遇
芯派新闻中心

626969cm澳门

微信公众号

从ChatGPT看芯片产业机遇

时间:2023/3/29 12:47:15浏览次数:369

一、ChatGPT激起AI浪潮,多场景创新产业链空间广阔

1.1、AI创新浪潮兴起,多模态赋能下游行业

ChatGPT快速渗透,AI产业迎发展新机

ChatGPT是由OpenAI公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。根据 World of Engineering数据显示,ChatGPT达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之 相比,TikTok达到1亿用户用了9个月,Instagram则花了2年半的时间。从用户体验来看,ChatGPT不仅能实现流畅的文字聊 天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。

ChatGPT爆火的背后是人工智能算法的迭代升级。ChatGPT是基于GPT-3.5微调得到的新版本模型,能够借助人类反馈的强 化学习(RLHF)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。从2008年 第一代生成式预训练模型GPT-1诞生以来,GPT系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型 (LLM)技术的不断突破,AI相关应用有望加速落地,AI产业或将迎来新一轮发展机遇。

ChatGPT激起AI浪潮,大算力芯片迎来产业机遇

ChatGPT是生成式人工智能技术(AIGC)的一种,与传统的决策/分析式AI相比,生成式AI并非通过简单分析已有数据来进 行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。AIGC的应 用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。 AIGC产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能AI芯片、服务器和数据 中心为AIGC模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责AI数据的采集、清洗、标注 及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、 推荐等场景,未来有望在多个行业呈现井喷式革新。

多模态赋能下游行业智慧化升级

多模态大模型有望成为AI主流,赋能下游行业智能升级。生成式AI主要依赖于人工智能大模型,如Transformer、BERT、 GPT系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的 增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习, 将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端 降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。

GPT-4性能提升显著,AIGC应用市场空间广阔

多模态模型是实现人工智能应用的关键。3月14日OpenAI发布GPT-4多模态大模型,拥有1)强大的识图能力;2)文字输 入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上, GPT-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下GPT-3.5在倒数10%左右。多模态 大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快 速增长。

1.2、算力芯片迎来产业机遇

AI芯片是人工智能的底层基石

AI人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路AI 芯片。AI的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(Yann LeCun)等人一起开发了 可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(Convolutional Neural Network,CNN)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时AI科技泡沫的破灭。

ChatGPT激起AI浪潮,大算力芯片迎来产业机遇

算力硬件层是构成AIGC产业的核心底座,主要包括AI芯片、AI服务器和数据中心。 AI芯片是算力硬件层的基石。AI芯片主要分为CPU、GPU、FPGA和ASIC四类,CPU是AI计算的基础,GPU、FPGA、ASIC 作为加速芯片协助CPU进行大规模计算。目前AI芯片主要被国际厂商垄断,根据Counterpoint、IDC数据,Intel和AMD共计 占2022年全球数据中心 CPU 市场收入的92.45%,Nvidia占2021年中国加速卡市场份额的80%以上。

AI 服务器是AI芯片的系统集成。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。 与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。据IDC数据,在2021H1全球 AI 服务器市场竞争格局 中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。数据中心的计算服务是承接AI算力需求的直接形式。AIGC的模型训练是通常是通过云计算服务完成的,其本质是AIGC模型 厂商借助IDC的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、626969cm澳门曙光 等,提供云计算的厂商主要有阿里、腾讯等互联网企业。

二、芯片是ChatGPT底层土壤

2.1、AI芯片有望率先受益,CPU+XPU异构形式成为主流

AI芯片根据下游应用可分为训练、推断两类

机器学习主要包括训练(training)和推断(inference)两个步骤,通常需要不同类型的AI芯片来执行。训练是指通过大数 据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能;推理是指利用 训练好的模型,使用新数据推理出各种结论。 训练芯片:通过大量的数据输入,构建复杂的深度神经网络模型的一种AI芯片。需要较高的计算性能、能够处理海量的数 据、具有一定的通用性,以便完成各种各样的学习任务,注重绝对的计算能力。 推断芯片:推断芯片主要是指利用训练出来的模型加载数据,计算“推理”出各种结论的一种AI芯片,注重综合指标,侧 重考虑单位能耗算力、时延、成本等性能。

全球AI芯片有望达到726亿美元规模

AI芯片是AI算力的核心,需求有望率先扩张。AI芯片是用于加速人工智能训练和推理任务的专用硬件,主要包括GPU、 FPGA、ASIC等,具有高度并行性和能够实现低功耗高效计算的特点。 随着AI应用的普及和算力需求的不断扩大,AI芯片需求有望率先扩张。根据IDC预测,中国AI算力规模将保持高速增长,预 计到2026年将达1271.4EFLOPS,CAGRA(2022-2026年)达52.3%。在此背景下,IDC预测异构计算将成为主流趋势,未来 18个月全球人工智能服务器GPU、ASIC和FPGA的搭载率均会上升,2025年人工智能芯片市场规模将达726亿美元。

云端/边缘端芯片同步发展

深度学习的应用开发可分成云端与边缘侧两大部分。云端指的是数据中心或超级计算机,具有强大的计算能力,利用海量 数据进行模型训练,也可以进行推理。边缘侧指的是数据中心外的设备,如自动驾驶汽车、机器人、智能手机、无人机或 IoT设备,用训练好的模型进行推理。根据场景不同,形成了两种不同要求的AI芯片: 云端芯片:具有最大的计算能力和最高的性能,主要对深度学习算法模型进行训练,有时也进行推断。目前云端主要以 CPU+GPU异构计算为主,根据wind数据,在机器学习服务器和高性能服务器中,CPU+GPU的成本占比分别为83%与51%。

边缘端芯片:计算性能有限,主要使用从云端传来的训练好的模型和数据进行推断。在边缘侧或手机等端侧设备中,很少 有独立的芯片,AI加速通常由 SoC上的一个IP实现。例如,苹果智能手机里最大的应用处理器(Application Processor,AP) 芯片就是一块带有AI核的SoC,这类SoC的性能一般可以达到5~10 TOPS。

AI芯片有望率先受益,CPU+XPU异构形式成为主流

云端训练和推断计算主要由 Al 服务器完成,底层算力芯片包括 CPU、GPU、FPGA、ASIC 等。 CPU是AI计算的基础,负责控制和协调所有的计算操作。在AI计算过程中,CPU用于读取和准备数据,并将数据来传输到 GPU等协处理器进行计算,最后输出计算结果,是整个计算过程的控制核心。根据IDC数据,CPU在基础型、高性能型、推 理型、训练型服务器中成本占比分别为32%、23.3%、25%、9.8%,是各类服务器处理计算任务的基础硬件。

GPU、FPGA、ASIC是AI计算的核心,作为加速芯片处理大规模并行计算。具体来看,GPU通用性较强,适合大规模并行计 算,且设计及制造工艺较成熟,目前占据AI芯片市场的主要份额;FPGA具有开发周期短、上市速度快、可配置性等特点, 目前被大量应用于线上数据处理中心和军工单位;ASIC根据特定需求进行设计,在性能、能效、成本均极大的超越了标准 芯片,非常适合 AI 计算场景,是当前大部分AI初创公司开发的目标产品。

CPU:底层核心算力芯片

CPU(Central Processing Unit)中央处理器:是计算机的运算和控制核心(Control Unit),是信息处理、程序运行的最终执 行单元,主要功能是完成计算机的数据运算以及系统控制功能。 CPU擅长逻辑控制,在深度学习中可用于推理/预测。在深度学习中,模型的训练和推理是两个不同的过程: 在训练过程中,模型需要进行大量的矩阵运算,因此通常使用GPU等擅长并行计算的芯片进行处理; 在推理过程中,需要对大量的已经训练好的模型进行实时的推理/预测操作,而这种操作通常需要高效的逻辑控制能力和低 延迟的响应速度,这正是CPU所擅长的。

GPU:AI高性能计算王者

GPU(Graphics Processing Unit)图形处理器:GPU最初是为了满足计算机游戏等图形处理需求而被开发出来的,但凭借 高并行计算和大规模数据处理能力,逐渐开始用于通用计算。根据应用场景和处理任务的不同,GPU形成两条分支: 传统GPU:用于图形图像处理,因此内置了一系列专用运算模块,如视频编解码加速引擎、2D加速引擎、图像渲染等。 GPGPU:通用计算图形处理器(general-purpose GPU)。为了更好地支持通用计算,GPGPU减弱了GPU图形显示部分的能 力,将其余部分全部投入到通用计算中,同时增加了专用向量、张量、矩阵运算指令,提升了浮点运算的精度和性能,以 实现人工智能、专业计算等加速应用。

FPGA:可编程芯片加速替代

FPGA(Field Programmable Gate Array)现场可编程门阵列:FPGA最大的特点在于其现场可编程的特性,无论是CPU、 GPU还是ASIC,在芯片制造完成后功能会被固定,用户无法对硬件功能做出更改,而FPGA在制造完成后仍可使用配套软件 对芯片进行功能配置,将芯片上空白的模块转化为自身所需的具备特定功能的模块。 可编程性、高并行性、低延迟、低功耗等特点,使得FPGA在AI推断领域潜力巨大。FPGA可以在运行时根据需要进行动态 配置和优化功耗,同时拥有流水线并行和数据并行能力,既可以使用数据并行来处理大量数据,也能够凭借流水线并行来 提高计算的吞吐量和降低延迟。根据与非网数据,FPGA(Stratix 10)在计算密集型任务的吞吐量约为CPU的10倍,延迟与 功耗均为GPU的1/10。

ASIC:云计算专用高端芯片

ASIC(Application Specific Integrated Circuit)专用集成电路:是一种为专门应特定用户要求和特定电子系统的需要而设 计、制造的集成电路。ASIC具有较高的能效比和算力水平,但通用性和灵活性较差。能效方面:由于ASIC是为特定应用程序设计的,其电路可以被高度优化,以最大程度地减少功耗。根据Bob Broderson数据, FPGA的能效比集中在1-10 MOPS/mW之间。ASIC的能效比处于专用硬件水平,超过100MOPS/mW,是FPGA的10倍以上。算力方面:由于ASIC芯片的设计目标非常明确,专门为特定的应用场景进行优化,因此其性能通常比通用芯片更高。根据 头豹研究院数据,按照CPU、GPU、FPGA、ASIC顺序,芯片算力水平逐渐增加,其中ASIC算力水平最高,在1万-1000万 Mhash/s之间。

2.2、国产芯片厂商加速布局

国产CPU多点开花加速追赶

全球服务器CPU市场目前被Intel和AMD所垄断,国产 CPU 在性能方面与国际领先水平仍有差距。根据Counterpoint数据, 在2022年全球数据中心CPU市场中,Intel以70.77%的市场份额排名第一,AMD以19.84%的份额紧随其后,剩余厂商仅占据 9.39%的市场份额,整体上处于垄断局面;目前国内CPU厂商主有海光、海思、飞腾、龙芯、申威等。通过产品对比发现, 目前国产服务器CPU性能已接近Intel中端产品水平,但整体上国内CPU厂商仍在工艺制程、运算速度(主频)、多任务处理 (核心与线程数)方面落后于国际先进水平。

生态体系逐步完善,国产GPU多领域追赶

全球GPU芯片市场主要由海外厂商占据垄断地位,国产厂商加速布局。全球GPU市场被英伟达、英特尔和AMD三强垄断, 英伟达凭借其自身CUDA生态在AI及高性能计算占据绝对主导地位;国内市场中,景嘉微在图形渲染GPU领域持续深耕,另 外天数智芯、壁仞科技、登临科技等一批主打AI及高性能计算的GPGPU初创企业正加速涌入。 图形渲染GPU:目前国内厂商在图形渲染GPU方面与国外龙头厂商差距不断缩小。芯动科技的“风华2号”GPU采用5nm工 艺制程,与Nvidia最新一代产品RTX40系列持平,实现国产图形渲染GPU破局。景嘉微在工艺制程、核心频率、浮点性能等 方面虽落后于Nvidia同代产品,但差距正逐渐缩小。

FPGA/ASIC国产替代正当时

FPGA全球市场呈现“两大两小”格局,Altera与Xilinx市占率共计超80%,Lattice和Microsemi市占率共计超10%;整体来 看,安路科技、紫光同创等厂商处于国际中端水平,仍需进一步突破。工艺制程方面,当前国产厂商先进制程集中在28nm, 落后于国际16nm水平;在等效LUT数量上,国产厂商旗舰产品处于200K水平,仅为XILINX高端产品的25%左右。 ASIC不同于CPU、GPU、FPGA,目前全球ASIC市场并未形成明显的头部厂商,国产厂商快速发展;通过产品对比发现, 目前国产厂商集中采用7nm工艺制程,与国外ASIC厂商相同;算力方面,海思的昇腾910在BF16浮点算力和INT8定点算力方 面超越Googel最新一代产品TPUv4,遂原科技和寒武纪的产品在整体性能上也与Googel比肩。未来国产厂商有望在ASIC领 域继续保持技术优势,突破国外厂商在AI芯片的垄断格局。

2.3、AI算力需求,存储芯片受益

AI算力需求,存储芯片受益

ChatGPT带动AI服务器需求,存储芯片受益。 ChatGPT的数据获取、数据整理、训练、推理除大算力芯片外,还需存储芯片支持。 服务器成本构成:服务器成本包括算力芯片、存储器等,根据IDC 2018年服务器成本构成,在高性能服务器/推理型服务器/机 器学习型服务器中存储占比29%/25%/16%。AI服务器,除了内存需要128GB或更大容量的高性能HBM和高容量服务器DRAM, 还需硬盘去存储大量数据。 存储下游市场:智能手机+服务器+PC是主要下游。智能手机端出货量增速有限,单机容量提升是主要推动力;服务器端,受 益人工智能、物联网和云计算等应用兴起,服务器出货量及单机容量提升推动增长。

AI高算力对高带宽内存的需求

AI大算力需要的内存:大容量服务 器DRAM和高带宽内存HBM。 按照应用场景,DRAM分成标准 DDR、LPDDR、GDDR三类。 JEDEC定义并开发了以下三类 SDRAM 标准,以帮助设计人员满足 其目标应用的功率、性能和尺寸要求。 1)标准型DDR:针对服务器、云计 算、网络、笔记本电脑、台式机和消 费类应用程序,与CPU配套使用 。2)LPDDR:Low Power DDR,针对 尺寸和功率非常敏感的移动和汽车领 域,有低功耗的特点。3)GDDR:Graphics DDR,针对高 带宽(例如显卡和 AI)的两种不同的存 储器架构是 GDDR 和 HBM。

AI助力企业级SSD市场扩容

AI助力企业级SSD市场扩容。 SSD为固态硬盘,由NAND颗粒、主控芯片等构成,其中NAND颗粒占成本的70%。SSD按照用途分为消费级、企业级 及其他行业级产品。近年来随着云计算、大数据发展,互联网服务加速普及,企业加快数字化转型,数据呈现井喷状 态,企业级SSD市场需求与规模不断攀升。 IDC 数据显示,企业级 SSD 全球出货量将从 2020 年的约 4750万块增长到 2021 年的 5264 万块左右,年均增长率为 10.7%,预计到 2025 年,将增加到 7436 万块左右。

三、芯片需求增长拉动产业链机会

3.1、封测:Chiplet是AI芯片大势所趋

AI产业机会-封测:Chiplet是AI芯片大势所趋

当前AI芯片呈现几大趋势: 1)制程越来越先进。从2017年英伟达发布Tesla V100 AI芯片的12nm制程开始,业界一直在推进先进制程在AI芯片上的应用。 英伟达、英特尔、AMD一路将AI芯片制程从16nm推进至4/5nm。 2)Chiplet封装初露头角。2022年英伟达发布H100 AI芯片,其芯片主体为单芯片架构,但其GPU与HBM3存储芯片的连接, 采用Chiplet封装。在此之前,英伟达凭借NVlink-C2C实现内部芯片之间的高速连接,且Nvlink芯片的连接标准可与Chiplet业 界的统一标准Ucle共通。而AMD2023年发布的Instinct MI300是业界首次在AI芯片上采用更底层的Chiplet架构,实现CPU和 GPU这类核心之间的连接。3)2020年以来头部厂商加速在AI芯片的布局。AI芯片先行者是英伟达,其在2017年即发布Tesla V100芯片,此后2020以来 英特尔、AMD纷纷跟进发布AI芯片,并在2022、2023年接连发布新款AI芯片,发布节奏明显加快。

AI产业机会-封测:Chiplet是AI芯片大势所趋

制程越先进、芯片组面积越大、小芯片(Chips)数量越多,Chiplet封装较SoC单芯片封装,成本上越有优势: Chiplet主要封装形式有MCM/InFO/2.5D这三种。 14nm制程下,当芯片面积超过700mm²时,Chiplet封装中的MCM成本开始较SoC低,当面积达900mm²时,MCM较SoC成本 低近10%(2颗chips)、或低20%(3颗chips)、或低25%(5颗chips); 7nm制程下,芯片面积超过400mm²时,MCM成本开始低于SoC,面积超过600mm²时,InFO成本开始低于SoC,当面积达 900mm²时,5颗chips情况下,MCM较SoC成本低40%、InFO较SoC成本低20%; 5nm制程下,芯片面积超过300mm²时,MCM成本开始低于SoC,成本超过500mm²时,InFO成本开始低于SoC,当面积达 900mm²时,5颗chips情况下,MCM较SoC成本低50%、InFO较SoC成本低40%、2.5D较SoC成本低28%。

鉴于当前AI芯片朝高算力、高集成方向演进,制程越来越先进,Chiplet在更先进制程、更复杂集成中降本优势愈发明显, 未来有望成为AI芯片封装的主要形式。

3.2、PCB:AI服务器基石

AI产业机会-PCB:AI服务器基石

ChatGPT数据运算量增长快速,带动服务器/交换机/显卡等用量提升,布局相应领域PCB公司显著受益。 ChatGPT带来了算力需求的激增,与之对应亦带来相应服务器/交换机等作为算力核心载体和传输的硬件,带来PCB需求大幅 增长,同时随着对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求 也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。

以23年发布的新服务器平台为例,Pcie 5.0服务器用PCB层数、材料、设计工艺均有升级,PCB价格提升显著,其层数从4.0 的12-16层升级至16-20层,根据 Prismark 的数据,2021 年 8-16 层板的价格为 456 美元/平米,而18 层以上板的价格为 1538 美元/平米,PCB 价值量增幅明显;另外配套新服务器,交换机、传输网产品都需要同步升级,预计400G、800G交换机对 PCB板子拉动巨大,进一步带动数通板景气度提升。


ChatGPT带动服务器用量增长及平台升级,预计2025年服务器PCB市场超160亿美元,2021-2025CAGR达21%。 随着ChatGPT对服务器用量增长及平台升级,对应PCB的板材、层数、工艺复杂的均显著提升,预计2025年全球服务器PCB 市场规模超160亿美元,2021-2025年CAGR达21%,成为PCB增长最快的下游之一。



报告出品方/作者:中泰证券