2024 — 2025 旗舰芯片全收录

纵览 芯片精粹
解码算力未来

从通用 CPU 到巨型 AI 加速器,深入解析 AMD、Intel、NVIDIA、Tenstorrent、Ampere 与 Cerebras 的顶尖设计与前沿架构。

开启探索
0
顶尖厂商
0
最高核心数
0
最先进制程 (nm)
0
最大 AI 核心数

旗舰芯片画廊

六大厂商在通用计算与人工智能领域的巅峰之作,点击分类标签快速筛选

AMD
AMD
数据中心霸主
2024

EPYC 9965 / MI325X

Zen 5 · CDNA 3

Turin 系列 EPYC 以高达 192 核的海量核心密度统治服务器市场;Instinct MI325X 配备 256GB HBM3E 与统一内存架构,直接挑战 NVIDIA 在 AI 训练领域的垄断地位。

制程工艺
3nm / 5nm / 6nm
核心 / XCD
192 Cores / 304
内存带宽
6.0 TB/s (HBM3E)
TDP
500W / 750W
关键特性
超大 HBM 容量、Infinity Fabric 互联、ROCm 生态
In
Intel
x86 架构巨头
2024

Xeon 6 / Core Ultra 285K

Granite Rapids · Lion Cove

Granite Rapids 带来全新性能核与能效核组合,支持 DDR5-6400 与 CXL 2.0;Arrow Lake 桌面端首次采用 Intel 20A 工艺,集成 NPU 3.0 为端侧 AI 提供算力支持。

制程工艺
Intel 3 / 20A
核心配置
128P / 24核桌面端
内存支持
DDR5-6400 / MCR
NPU 算力
13 TOPS (桌面)
关键特性
Foveros 3D 封装、CXL 2.0、AMX 加速引擎
NV
NVIDIA
AI 计算之王
2024

Blackwell B200 / GB200

Blackwell Architecture

两颗 GPU 裸片通过 NV-HBI 以 10TB/s 速率互联为一颗芯片,FP4 精度与第二代 Transformer Engine 专为万亿参数大模型训练与实时推理而生。

制程工艺
TSMC 4NP
晶体管数
2080 亿
AI 算力
4.5 PFLOPS (FP4)
显存容量
192 GB HBM3E
关键特性
第二代 Transformer Engine、第五代 NVSwitch、机密计算
TT
Tenstorrent
开源 AI 新锐
2024

Wormhole n150s / Black Hole

Tensix · Dataflow

由传奇芯片架构师 Jim Keller 领衔,摒弃传统 SIMD 思路,采用网格化 Tensix 核心与数据流架构,配合完全开源的软件栈,主打极致性价比与灵活扩展。

制程工艺
7nm / 6nm
Tensix 核心
80 / 140+
片上内存
~240 MB SRAM
互联接口
PCIe 5.0 / Ethernet
关键特性
数据流执行、Buda/Budaback 编译器、开放生态
Am
Ampere
云原生 ARM
2024

AmpereOne M / A192-32X

Custom ARMv8+

专为云计算设计的 Arm 服务器 CPU,采用自研 Arm 兼容微架构,拥有业界领先的单线程性能与核心密度。相比传统 x86,在同等性能下可显著降低功耗与 TCO。

制程工艺
5nm
核心数量
最高 192 核
内存通道
12-channel DDR5
PCIe 支持
128 lanes Gen5
关键特性
单线程优化、原生 AI 加速、CCIX / CXL 支持
Cb
Cerebras
晶圆级引擎
2024

WSE-3 / CS-3

Wafer Scale Engine

整块晶圆即一颗芯片。WSE-3 将 4 万亿晶体管集成在 46,225 mm² 的晶圆级面积上,拥有超过 90 万颗 AI 核心,彻底打破传统封装的物理与带宽限制。

制程工艺
TSMC 5nm
AI 核心
900,000+
片上内存带宽
21 PB/s
芯片面积
46,225 mm²
关键特性
晶圆级集成、分布式权重存储、权重流技术

三大技术架构范式

理解当前芯片设计的三种主流思路与演进方向

通用多核扩展

以 AMD EPYC 和 Intel Xeon 为代表,通过增加核心数、改进缓存层级与互联带宽,在通用计算领域持续提升吞吐量。适合数据库、虚拟化与各类企业级应用。

异构 AI 加速

NVIDIA Blackwell 与 AMD CDNA 代表这一路线:在 GPU 或专用加速器内部集成 Tensor Core、Transformer Engine 等专用单元,针对矩阵运算与神经网络训练做极致优化。

数据流与晶圆级

Tenstorrent 的数据流架构与 Cerebras 的晶圆级引擎彻底抛弃传统冯·诺依曼瓶颈,通过将计算与存储极度靠近,实现惊人的能效比与片上内存带宽。

核心参数对比

快速横向比较各平台的关键技术指标与应用定位

厂商 旗舰产品 类型 制程 峰值算力 / 规模 主要场景
AMD Instinct MI325X AI 加速器 AI 5nm / 6nm 1.3 PF FP16 大模型训练 / HPC
Intel Xeon 6 (Granite Rapids) 服务器 CPU CPU Intel 3 128 性能核 云计算 / 数据分析
NVIDIA Blackwell B200 AI / HPC GPU GPU 4NP 4.5 PF FP4 生成式 AI / 超算
Tenstorrent Black Hole AI 加速器 ASIC 6nm 140+ Tensix 核心 边缘推理 / 稀疏模型
Ampere AmpereOne A192-32X 云原生 CPU CPU 5nm 192 核 Web 服务 / 容器云
Cerebras WSE-3 晶圆级引擎 AI 5nm 900,000+ 核心 科学模拟 / 超大规模 AI

2024 芯片发展脉络

这一年,AI 算力需求推动了架构、制程与封装技术的全面跃迁

2024 年初
Intel 发布 Meteor Lake 与 Granite Rapids
首次在客户端处理器中集成 NPU,标志着端侧 AI 时代的到来;数据中心端则以 Intel 3 工艺挑战 AMD 的领先地位。
2024 年中
AMD Turin 与 NVIDIA Blackwell 相继登场
AMD 以 192 核刷新 x86 核心数记录;NVIDIA Blackwell B200 以 FP4 精度与晶圆级互联重新定义 AI 训练的上限。
2024 下半年
Cerebras WSE-3 与 Tenstorrent Black Hole 亮相
非主流架构开始获得更多关注:Cerebras 的晶圆级引擎与 Tenstorrent 的数据流 ASIC 为大模型推理提供了差异化解决方案。
2025 展望
3nm 制程与先进封装全面普及
随着 TSMC 与 Intel 18A 产能爬坡,Chiplet 与 3D 封装将成为旗舰芯片的标配,算力密度与能效比将迎来新一轮飞跃。