2026年,人工智能的发展已迈入全新的“推理时代”。当业界还在热议大模型的参数竞赛时,一场更深刻的变革正在算力基础设施层面悄然发生——AI产业的竞争核心,正从“训练出更大的模型”转向“更经济地运行海量推理负载”。在这一转折点上,亚马逊云科技(AWS)凭借其自研芯片家族的战略布局,正在为企业客户打开一扇通往高性能与低成本兼顾的新大门。
从“可选”到“核心”:AWS自研芯片的战略跨越
2026年2月,亚马逊新任人工智能基础设施负责人Peter DeSantis在接受采访时表示:“如果我们能够在自己的自研AI芯片上构建模型,我们就能以纯AI大模型提供商成本的仅仅一小部分来构建这些模型。”这番话背后,是AWS一项具有里程碑意义的战略升级——将自研AI芯片从云端可选算力,正式推至自家前沿大模型开发的核心路径。
亚马逊CEO安迪·贾西(Andy Jassy)在本月初透露,亚马逊2026年资本支出将达到约2000亿美元,远超华尔街预期,其中相当一部分将用于自研AI ASIC算力基础设施的开发和迭代。这一投入规模,彰显了AWS在AI芯片领域的决心。
Trainium家族:从性能到性价比的全面突破
AWS的AI芯片战略由Annapurna Labs主导,这家2015年收购的以色列芯片设计公司,如今已成为AWS核心竞争力的一部分。其Trainium系列芯片专为AI训练和推理设计,已经演进至第三代:
- Trainium2(2024年):相比第一代性能提升4倍,配备96GB HBM高带宽内存。更值得关注的是,Trainium2实例的价格仅为同类NVIDIA H100实例的一半左右,同时为众多工作负载提供具有竞争力的性能。AWS官方数据显示,Trainium2相比GPU云实例可提供约30%-40%更优的性价比。
- Trainium3(2025年12月发布):AWS首款采用3nm制程的AI芯片,单芯片FP8算力达2.52 petaflops,配备144GB HBM3e内存和4.9TB/s带宽。单个Trn3 UltraServer可集成144颗芯片,提供362 FP8 petaflops的总算力,同时能效较Trainium2提升40%。
- Trainium4(已公布路线图):计划支持NVIDIA NVLink Fusion,可实现Trainium与NVIDIA GPU在统一集群中的混合部署。这一设计思路表明,AWS的战略并非简单的“去GPU化”,而是为客户提供分层、灵活的算力选择。
最能证明Trainium实力的,是代号“Project Rainier”的超级计算机项目。2025年10月,AWS启用了部署近50万颗Trainium2芯片的AI训练集群,专用于训练Anthropic的Claude模型。这座占地1200英亩的设施,提供比Anthropic先前版本高出5倍的算力,证明了Trainium已从“实验性替代品”成熟为支撑前沿AI开发的核心基础设施。
