全球算力发展三大趋势
Back08 Jul 2025 | 深度观点
本文转载自客座副教授车品觉教授为《信报》撰写的专栏「全民大数据」。

在6月的2025 台北国际计算机展(COMPUTEX 2025)主题演讲中,美国芯片巨擘英伟达(Nvidia)创办人兼行政总裁黄仁勋,首次详细披露下一代人工智能(AI)平台:Rubin GPU (R100)采用台积电的N3P(3纳米增强版)工艺,并首次商业化集成HBM4高频宽内存。
最引人注目的创新是,Rubin平台将集成一颗专门的神经处理单元(NPU)作为「智能体辅助处理器」(AqentCo-processor),旨在以极低功耗高效处理AI智能体在任务上的规划、环境感知、工具调用时的决策辑,把大模型的核心推理与Agent的「思考」过程在硬件层面上分离,大幅提升复杂A任务的执行效率。
另外,台积电在本月的技术论坛宣布,其备受期待的2纳米N2已顺利进入风险性试产阶段,首批客户包括苹果和英伟达。更重要的是,台积电首次公开了1.6纳米A16的初步技术细节。A16将采用更先进的垂直堆栈纳米片晶体管(CFET)与背面供电网络(BacksidePower Delivery)技术,旨在把晶体管密度和效能再提升15%至20%。此举目的是巩固其在2027年至2028年技术节点上的领先地位,满足未来训练万亿级参数模型及「通用人工智能(AGI)系统的超庞大算力需求。
这些突破性进展,共同描绘出全球算力发展的三大核心趋势:
1. 从「单卡算力」到「系统带宽」:竞争焦点已不再是单个图像处理器(GPU)的浮点运算(FLOPS)值,而是整个计算集群的系统级性能,特别是节点间的互联带宽及内存带宽,这决定了训练万亿参数模型时的扩展效率和实际樽颈。
2. 推理成本成为核心战场:随着大模型应用的普及,AI推理的总算力消耗,已开始追平甚至超过训练的算力需求。
3. 算力异构与软件协同:中央处理器(CPU)、GPU、神经处理单元(NPU)以及各种专用加速器(ASIC)的异构计算成为常态。胜负在于软件栈能否无缝地协同、调度不同类型的算力资源,为开发者提供统一、高效的程序设计界面。
有这样卓越的硬件,怎能不提一下OpenAl向开发者小规模展示的GPT-5预览版中,一个名为「持续认知」(Persistent Cognition)」功能所引起的热议。该功能允许模型在长达数周的时间跨度内,使用记忆与特定用户的交互历史和偏好,并在不同任务中主动运用这些「记忆」推理。例如,它能记住用户是一位心脏科专家,在后续讨论中自动使用更专业的医学术语,这标志着模型从「无状态」工具向有状态的个性化迈出了关键一步。
作者简介:
车品觉教授 Prof Herbert Chia
客座副教授
港交所董事
前红杉资本中国基金专家合伙人
前香港科技园公司董事会成员及前阿里巴巴集团副总裁兼首任数据委员会会长