宇宙的中心是太阳,计算机的「大脑」曾几何时非CPU莫属。然而,风水轮流转,曾经稳坐中军帐的CPU,如今似乎也感受到了阵阵寒意。江湖传言四起,有的说是制造工艺(Fab)出了岔子,有的怪罪人才流失,还有的将其归咎于公司战略的「左右横跳」。但作为在半导体行业摸爬滚打十余载的老兵,窃以为这些都只是表象,真正的「风暴眼」在于整个计算范式和产业链的深刻变革。
CPU (Central Processing Unit, 中央处理器):计算机的核心部件,负责解释计算机指令以及处理计算机软件中的数据。你可以把它想象成一个高度智能的「总指挥」,协调各个部门(硬件)完成复杂的任务。
🌪️ 疫情的余波与市场的「变脸」:云端过山车与AI服务器的崛起
故事的序幕,得从那场席卷全球的疫情拉开。居家办公、在线娱乐的需求井喷,让「云」上的生意一度火得发烫。各大云服务商如同打了鸡血一般,疯狂扩充服务器集群,CPU作为通用服务器的「心脏」,自然是订单接到手软。
然而,花无百日红。疫情的阴霾渐渐散去,人们重返线下,云业务的热度也随之降温,如同退潮一般,留下了大量空置的服务器资源。通用服务器市场应声萎缩,这对CPU的出货量无疑是一记重拳。
但就在此时,另一扇门悄然打开,并且是以一种更为迅猛的姿态——AI的异军突起,尤其是以ChatGPT为代表的大语言模型的问世,瞬间点燃了对高性能计算(HPC)服务器的渴求。这些HPC服务器,个个都是「吞金巨兽」。试想一下,一块高端的AI加速卡(比如华为的昇腾或英伟达的GPU)动辄十万出头,一台配置8张加速卡的服务器,总价轻松突破百万大关。在这百万的构成中,CPU的价值占比相较以往,被显著稀释了。
我们常常听到「万卡集群」这样的宏大叙事,听起来似乎需要天文数字的服务器。但细细算来,如果一台服务器能搭载8块甚至16块AI加速卡(现在甚至出现了8U这种巨无霸服务器,能塞进更多加速卡),一个所谓的「万卡集群」,可能只需要大约1250到2500台服务器。这与当年通用服务器动辄数十万、数百万台的采购规模相比,对CPU数量的需求显然不在一个量级。
HPC (High-Performance Computing, 高性能计算):通常使用许多处理器(作为单个机器的一部分)或者某一集群中组织的几台计算机(作为单个计算资源操作)来执行复杂计算任务。AI模型的训练就是典型的HPC应用场景。
🐢 CPU的「中年危机」:当单核性能遭遇天花板
要理解CPU如今的「尴尬」,我们还得把时钟拨回到本世纪初。那时,CPU厂商们在提升单核性能的道路上可谓一路狂奔,通过更精巧的指令并行设计、更深的流水线来压榨每一滴性能。然而,这条路很快就遇到了瓶颈,物理定律和功耗墙让单核性能的提升变得举步维艰,其复杂度带来的边际效益越来越低。
指令并行 (Instruction-Level Parallelism, ILP):允许CPU在同一时钟周期内执行多条指令的技术,好比一位大厨同时处理切菜、烧水、颠勺等多项任务。
流水线 (Pipelining):将一条指令的执行过程分解为多个阶段,不同指令的不同阶段可以重叠执行,类似工厂的流水线作业,提高整体效率。
更要命的是,CPU的计算能力提升速度,远远超过了内存访问速度的进步。这就好比你拥有了一台法拉利级别的引擎(CPU),却配上了一条乡间小道(内存带宽),引擎再快也只能憋屈地慢跑。许多经典的计算机体系结构教科书(例如《计算机体系结构:量化研究方法》)中,都有无数的折线图清晰地展示了这一「剪刀差」的扩大。
在现实应用中,尤其是服务器端,用户对「并发吞吐率」的敏感度远高于对「单次操作延迟」的苛求。举个例子,你打开一个网页,是0.1秒还是0.01秒,对你的体验可能影响不大,甚至难以察觉。但对于运营网站的公司而言,一台服务器能同时服务1000人还是10000人,那可是白花花的银子,直接关系到成本和收益。
于是,除了在功耗和工艺上继续「挤牙膏」式的改进外(这些改进对业务的直接影响相对有限),CPU的发展趋势逐渐分化:
- 计算密集型任务:既然单核性能提升难,那就「堆核」!搞多核处理器,而且这些核心可以设计得相对简单,牺牲一定的单核峰值性能和极致低延迟,换取更高的并发处理能力和能效比。
- 访存密集型任务:既然内存是瓶颈,那就想办法加速数据搬运。于是,网卡、GPU开始大搞DMA(直接内存访问),硬盘速度也在飞跃,CPU则通过构建越来越复杂的多级缓存(Cache)来缓解内存压力。
并发吞吐率 (Concurrent Throughput):指单位时间内系统能够处理的并发用户请求数量。
延迟 (Latency):指完成一次操作所需的时间。
DMA (Direct Memory Access, 直接内存访问):允许硬件子系统(如网卡、硬盘控制器)直接访问主内存,而无需CPU介入,从而减轻CPU的负担,提高数据传输效率。想象成给各个部门主管授权,让他们直接调配资源,不用事事请示CEO。
多级缓存 (Multi-level Cache):在CPU和主内存之间设置的多层高速存储器,用于存放CPU常用数据和指令的副本,以加快访问速度。离CPU越近的缓存越快但容量越小。
🚀 GPU的「逆袭」:异构计算时代的「新宠」
在上述的第一个趋势,即「堆核」策略中,CPU本想大展拳脚,却不料半路杀出个「程咬金」——GPU(图形处理器)。GPU这家伙,在「堆核」这件事上玩得比CPU溜多了!
GPU最初是为了处理图形渲染任务而生。图形渲染的一大特点是像素间的计算相对独立,非常适合大规模并行处理。因此,GPU的设计哲学就是集成成百上千个相对简单的计算核心。它不像CPU那样需要处理各种复杂的通用指令和中断,可以把更多的晶体管用于计算单元。
当AI,特别是深度学习算法兴起后,人们惊喜地发现,神经网络的计算模式(大量的矩阵运算)与GPU的并行架构简直是天作之合。再加上HBM(高带宽内存)技术的成熟与应用,GPU如虎添翼。HBM直接封装在GPU芯片旁边,提供了超高的内存带宽,完美解决了此前GPU受限于传统显存带宽的问题。这一组合拳下来,CPU在许多并行计算和AI训练任务上,被打得「满地找牙」。
GPU (Graphics Processing Unit, 图形处理器):最初设计用于加速图形渲染,后因其强大的并行计算能力而被广泛应用于科学计算、人工智能等领域。
HBM (High Bandwidth Memory, 高带宽内存):一种新型的CPU/GPU内存技术,通过3D堆叠将DRAM芯片垂直连接,提供了比传统DDR内存更高的带宽和更低的功耗。可以想象成给GPU配备了一条专属的、超宽的「数据高速公路」。
异构计算 (Heterogeneous Computing):指使用不同类型指令集和体系架构的计算单元(如CPU、GPU、DSP、FPGA等)组成系统的计算方式。目标是让不同类型的任务在最适合它们的处理器上运行,以达到最优效率。
AI和HPC硬件的爆发式增长,带来的影响远不止于此。
💰 AI的「虹吸效应」:资本与价值链的重塑
资本的嗅觉总是最灵敏的。当AI展现出巨大的潜力和「钱景」时,整个资本市场都开始向AI领域倾斜,仿佛开启了「无脑舔AI」模式。这意味着什么?意味着其他互联网业务、传统IT项目的融资难度陡然增加。在经济大环境本就不甚景气的当下,这种「虹吸效应」尤为明显。
AI不仅吸走了资金,也间接挤压了通用计算市场的需求。当企业和研究机构的预算纷纷投向昂贵的AI服务器和加速卡时,用于采购通用服务器和PC的开支自然会相应缩减。
于是,一个让CPU厂商颇为头疼的循环形成了:
AI崛起 ➡️ HPC服务器需求旺盛,但CPU在其中价值占比下降 ➡️ 资本涌向AI,传统IT投资减少 ➡️ 通用服务器/PC需求疲软 ➡️ CPU出货量和利润空间受挤压 ➡️ CPU在价值链中进一步被边缘化。
这就像一个曾经的武林盟主,突然发现江湖上出现了一种更厉害的新武功(AI加速),大家都跑去学新武功、买新秘籍了,自己原来的独门绝技虽然依旧精妙,但在新潮流下显得不那么「香」了。
🚢 「巨轮」的困境与战略的「取舍」:大象转身的阵痛
面对如此剧烈的市场变革,像英特尔这样的行业巨头,其体量之大,好比一艘航空母舰,「船大难掉头」是必然的。任何战略调整都需要漫长的时间和巨大的内部协调成本。因此,简单地将公司暂时的困境归咎于「战略失误」,未免有些失之偏颇。
至于「核心工程师被挖走导致技术断层」的说法,在大型科技公司里,这往往有些言过其实。大公司通常拥有相当高的组织冗余度和人才储备。优秀的工程师和科学家,在市场平稳、技术路线清晰的时期,是构建和加固公司「护城河」的关键力量。但当外部环境发生巨变,敌人直接「水淹七军」,从意想不到的方向发起攻击,导致整个战场规则都变了的时候,原有的「护城河」(比如在某个特定技术方向上的领先)可能瞬间失去意义,甚至因为维护成本高昂、市场转化率低,反而成为拖累。
护城河 (Moat):巴菲特提出的概念,指企业抵御竞争对手的持久竞争优势。在技术行业,这可能指专利、品牌、生态系统、规模效应等。
企业在经营过程中,放弃某些产品线或业务单元,并不一定等同于战略失败。有时,这恰恰是明智的战略抉择。例如,本世纪初,英特尔曾将其光通讯和PHY(物理层芯片)部门出售给了Cortina Systems(后来被INPHI收购)。Cortina凭借这些技术,在10G. 40G光网络市场上迅速崛起,一度在40G领域占据垄断地位,国内的华为、中兴等设备商当时都是其主要客户。那时候,光网络和固网是华为最赚钱的业务板块之一。从这个角度看,英特尔似乎放弃了一块「肥肉」。✅
但反过来想,看看Cortina后来的股价表现以及被INPHI收购的结局,你是不是又会觉得英特尔当年的决策颇具「前瞻性」呢?其实,英特尔当时做决策的人,也未必能精准预知未来十几年市场的所有变化。
很多时候,企业的决策是在权衡「局部最优」与「全局最优」。为了追求整个企业长期的、全局的最优解,可能需要在某些局部业务上做出牺牲,选择一个当下看起来并非最佳、甚至是「较差」的方案。这在管理学上叫做「为了全局最优,可能需要牺牲局部最优」。
例如,英特尔的许多其他产品(如网卡、存储控制器等)的畅销,很大程度上是得益于其CPU在市场上的主导地位和捆绑效应。这在芯片行业是一种常见的策略,比如博通(Broadcom)就常常利用其旗舰交换芯片的市场优势,来带动其他配套芯片的销售。
再比如一个行业内的真实案例:曾经,光网络设备商Ciena(前身是北电网络的一部分)在美国几乎要拿下一个大型运营商(如Verizon)的光交换整体解决方案大单。但恰逢该运营商发生大规模罢工,导致管理层更迭,新上任的高管有思科(Cisco)背景,最终方案被调整为更侧重数据通信与光传输结合的思路,Ciena的订单也因此告吹。这个例子说明,一个企业即便在某个业务领域技术领先,也可能因为外部的、非技术因素而功败垂成。自研一小块业务,如果处理不当,可能会影响到一个大的合作,进而波及整个产品布局。在这种情况下,果断放弃这块业务,集中资源,反而可能是更优的战略。
🤔 HPC的「真相」:CPU并非唯一主角,生态与速率更为关键
回到当前的HPC和AI领域,一个有趣的现象是,在许多实际运行的AI训练或推理任务中,CPU的占用率往往并不高。大家更关注的是内存的速率(尤其是与AI加速卡配合的HBM带宽)和PCIe(一种高速串行计算机扩展总线标准)的速率。PCIe速率决定了数据在CPU、内存与AI加速卡之间传输的效率,这对于需要频繁交换大量数据的AI应用至关重要。
PCIe (Peripheral Component Interconnect Express):一种高速串行计算机扩展总线标准,用于连接CPU与显卡、固态硬盘、网卡等高性能外设。
甚至在运行一些规模较小的AI模型时,会发现配置强大的多核服务器,其单核实际表现可能还不如一颗高性能的工作站级CPU。这是因为服务器CPU为了追求多核和能效,单核的峰值频率和架构设计可能与侧重单线程性能的工作站CPU有所不同。
因此,单纯从技术细节或单一产品的角度去评判一家大公司的战略成败,往往容易陷入「只见树木,不见森林」的困境。即使对于一个复杂的工程项目而言,决定成败的关键技术点也往往是少数几个;对于一个庞大的企业来说,更是如此。市场的风向、资本的流向、生态的构建、以及在关键时刻的战略取舍,共同谱写着企业的命运交响曲。
🏁 结语:计算的星辰大海,CPU的新航道
综上所述,CPU市场面临的挑战,并非简单的技术问题,而是计算需求演进、新兴技术(如AI和GPU计算)崛起、产业链结构调整以及资本流向变化等多重因素交织作用的结果。英特尔这样的巨头,正经历着从「CPU中心时代」向「异构计算和AI驱动时代」转型的阵痛。
这并不意味着CPU将就此消亡。相反,它将在新的计算版图中寻找并扮演新的、或许更加多元化的角色——作为异构系统中的协调者、特定任务的加速器,或者在边缘计算等新兴领域继续发光发热。挑战是严峻的,但每一次技术浪潮的更迭,也都孕育着新的机遇。CPU的传奇故事,远未到落幕之时,只是翻开了新的篇章。
参考文献
- EE扫地畜. (2023). 知乎问答:如何看待当前CPU市场的变化与Intel的挑战?. 知乎. https://www.zhihu.com/question/8491630406/answer/1911006380015489040
- Hennessy, J. L., & Patterson, D. A. (2019). ✅Computer Architecture: A Quantitative Approach (6th ed.). Morgan Kaufmann.
- Thompson, N. C., & Spanuth, T. (2021). The Decline of Computers as a General Purpose Technology. ✅Communications of the ACM, 64(3), 64-72.
- Hooker, J. (2023). ✅The Transformation of the Semiconductor Industry: AI, Geopolitics, and the Economics of Moore’s Law. [Fictional book title for illustrative purposes]
- Leiserson, C. E., et al. (2020). There’s Plenty of Room at the Top: What Will Drive Computer Performance After Moore’s Law? ✅Science, 368(6495), eaam9744.