趋势一:全球算力规模高速增长,算力竞赛白热化,算力成为全球科技竞争的战略制高点
在数智文明加速发展的今天,算力已超越传统基础设施范畴,成为数字经济的底层基座与新质生产力的核心引擎。产业端,它重构智能制造、能源调度、金融创新的核心逻辑,让柔性生产、精准决策成为常态;生活端,它赋能智慧出行、远程医疗、普惠教育,让个性化服务触达每个角落。伴随着算力实现全域渗透,加速生产与生活全场景跃迁,将深刻推动社会发展进程。
算力不仅是承载数字经济发展的底层基础,更是核心驱动力。从要素看,算力将数据转化为价值;从工具看,算力是科技创新的加速器;从结果看,算力催生新产业、提升旧产业。数字经济成为全球经济发展引擎,算力成为创新的核心。根据相关权威机构的研究,算力是经济发展的倍增器。加大对算力等数字基础设施的投入,能够有效驱动各行各业的业务创新和经济效益增长。
趋势二:AI 加速进入千行百业,大模型将成为未来智能世界的操作系统,创造价值将是第一要素
2025 年作为大模型应用落地元年,全球大模型技术正加速从 “技术验证”迈向 “商业闭环”。大模型已超越单纯工具属性,升级为承载智能世界应用的底层平台,“以大模型为核心、应用与智能体为外围” 的生态体系,正逐步构建起智能时代的底层架构,推动 AI 全面渗透千行百业。
大模型意图理解能力的突破,部署成本的大幅下降,加速大模型在千行百业的落地
技术层面,大模型实现关键能力突破。深度推理能力的跨越式提升,使其能应对多文档分析、长周期任务规划等复杂场景;自主决策与工具调用能力的进化,让单任务从 “单次交互” 升级为 “多步骤协同”,例如工业智能体完成订单调度需联动生产、仓储、物流等多个模块,实现对复杂流程的深度赋能。
成本层面,落地门槛大幅降低。训推一体机、模型蒸馏、微调技术、低精度量化技术快速成熟,让几十亿至百亿参数模型的本地化部署成为现实,显著降低企业应用成本;开源生态持续完善,Qwen 开源模型占据 Hugging Face 平台新增衍生模型的 40%以上,为中小企业参与 AI 创新打开通道。
人工智能领域正迎来深刻的范式转移:从专注于数字世界信息处理的 “数字智能”,迈向能够在物理世界感知、理解、行动的 “具身智能”(Embodied Intelligence)。世界模型作为核心支撑,推动虚实边界持续消融,重塑人类与物理世界的交互方式,开启智能应用的全新维度。
物理世界中大量重复、危险、精细的劳动场景,构成自动化技术的蓝海市场。传统自动化设备受限于预设程序,缺乏适应性与泛化能力;而传统数字智能虽擅长处理文本、图像等虚拟数据,却因 “离身” 属性难以跨越虚实交互的天然鸿沟,无法满BG大游官方网站足物理世界的自动化需求。
当 AI 大模型参数量突破十万亿级、智能体单任务 Token 消耗达数亿量级,全球算力需求呈指数级爆发。传统智算中心受限于芯片工艺物理极限与 “内存墙” 瓶颈,算力供给模式面临根本性变革,超节点作为系统级创新载体,正重塑算力基础设施格局,标志着智算中心正式迈入超节点时代。
AI 商业化落地与技术迭代,催生了对高效能、低时延算力的刚性需求,传统算力供给模式已难以适配。大模型训练与推理对算力提出极致要求:万亿参数模型单次训练需消耗千亿级浮点运算能力,复杂任务智能体的 Token 消耗达数亿量级;多模态应用、科学模拟等场景则推动算力需求从通用计算向专用高性能计算延伸。而摩尔定律放缓导致芯片性能提升幅度下滑,2018-2022 年 AI 芯片性能年均提升 50%,2023-2025 年已降至 20%以下,单点芯片突破难以为继。
延续半个多世纪的 “CPU 为中心” 主从计算范式正被打破。随着人工智能爆发式增长与能效瓶颈日益凸显,由 CPU、GPU、NPU、DPU 及 ASIC、FPGA等多样化处理器组成的平等协同架构,成为计算架构的核心演进方向,重塑数据中心算力供给逻辑。
传统 CPU 主从架构的通用性优势,已无法满足现代数据中心专业化、多样化的算力诉求,驱动架构向多样化、协同化转变。
工作负载呈现极致分化:AI 训练需海量并行浮点运算能力,网络功能虚拟化依赖高速数据包处理,大数据查询侧重特定过滤与聚合操作,企业应用则追求稳定通用计算支持。单一通用 CPU 架构难以以最优能效应对所有场景,“用最佳工具做最佳事” 的架构理念应运而生。
随着 AI 大模型、工业互联网、自动驾驶等新一代信息技术的迅猛发展,算力需求正以前所未有的速度和规模爆发。传统的以大型、集中式数据中心为核心的算力供给模式,在面对海量数据实时处理、超低时延交互等新兴业务场景时,日益显现出瓶颈。
预计 2025 年中国智能算力规模将达 1037EFLOPS,同比增长超 40%,呈现出指数增长的趋势,但也带来了一定的供需矛盾。东部地区承载了全国近六成的算力需求,但面临能耗指标紧张、电力成本高企的压力;而西部地区虽拥有丰富的绿色能源禀赋,本地算力需求相对有限,其清洁能源潜力尚未充分转化为算力供给优势。
应对气候变化、探索可控核聚变、研发新药等前沿挑战,正推动计算需求向“高精度科学模拟 + 高效 AI 处理” 的复合形态演进。单一超算或智算架构已难以承载多元诉求,超算(HPC)与智算(AI Computing)从独立发展走向深度融合,形成 “超智融合” 新范式,实现从芯片到系统、从软件到应用的全方位协同,成为解决复杂计算问题的核心支撑。
超智融合的兴起,是计算需求多元化、成本控制刚性化、资源利用高效化共同作用的必然结果。
计算需求日趋多元:传统超算擅长 FP64 高精度浮点运算,适配科学模拟;智算聚焦 FP16/INT8 低精度高吞吐量计算,支撑 AI 训练与推理。“AI for Science”等场景需要混合精度计算,例如气候模拟既需超算的气象动力学建模,又需智算的卫星数据模式识别,单一架构无法满足。
智算时代的产业链呈现“基础层高门槛、技术层重创新、应用层广覆盖”的复杂特征,单一厂商难以独立满足全场景创新需求。开源开放成为聚合全球力量、打破技术壁垒的核心路径,而算力互联互通则推动分散算力转化为社会级服务,两者共同构建起智算产业可持续发展的生态体系。
AI 产业链的分层特性,决定了开源开放是实现协同创新、加速产业规模化的必然选择。
基础层(AI 芯片、算力BG大游官方网站设施、数据平台)需长期技术积累与巨额资本投入,技术层(算法模型、机器学习框架)依赖顶尖人才与理论突破,应用层则要求深度理解垂直领域业务流程。三层需求的差异化与复杂性,使得任何单一主体都无法包揽全链条创新,必须通过开源开放实现资源共享、能力互补。开源开放的核心价值在于 “降门槛、促协同、破垄断”:通过共享算法框架、模型权重、工具组件,让中小企业、科研机构及个体开发者无需重复投入即可参与前沿研发;全球开发者在开源社区协作优化,加速技术迭代与场景适配,形成 “底层突破 — 上层落地” 的良性循环;避免少数巨头的技术垄断与 “厂商锁定”,保障产业创新活力。
趋势九:算力中心向智算中心迈进,高密化、液冷化和集群化成为发展方向,能源成为关键要素
算力需求呈指数级爆发:GPT-5 的训练标志着人工智能行业进入万卡集群与千兆瓦级能耗的新时代,其算力需求呈现指数级跃增。据行业分析,完成一次完整的 GPT-5 训练需消耗 20 万至 30 万张 H100 GPU,以 H100 为基准计算,总算力需求约为 GPT-4 的 25 至 100 倍。在时间成本上,单次训练周期预计持续 4 到6 个月,而仅计算硬件消耗,单次训练成本已突破 5 亿美元。企业端,字节跳动2025 年 AI 相关资本开支同比激增 386%,火山引擎算力调用量达 12.7 万亿tokens / 日,较 2024 年底增长 3 倍,推动 AIDC 从百兆瓦级向吉瓦级跨越。
趋势十:量子计算走向工程化阶段,未来 1-2 年将是量子计算从技术突破走向商业化应用的关键窗口期
主流研究从单纯追求量子比特数量,转向“规模与质量并进”。加州理工学院的中性原子系统达到 6100 量子比特规模,展现出强大的扩展潜力。2025 年是从物理量子比特迈向逻辑量子比特的转折点。逻辑量子比特通过纠错编码构建,错误率远低于物理比特,是实现可靠计算的核心。谷歌“Willow”芯片实现 105个量子比特,错误率显著降低,突破纠错关键阈值,标志容错量子计算已见曙光。在具有商业或科学价值的实际问题上,量子计算机能够提供比现有最先进的经典计算机更优(更快、更准或成本更低)的解决方案。金融、制药、物流、材料等行业的头部企业,已从早期探索量子计算转为深度合作,开展具有明确业务导向的概念验证,并初步收获量化收益。返回搜狐,查看更多