英伟达AI

内容摘要C114讯 北京时间5月21日消息(岳明)Light Reading在一篇最新报道中针对英伟达ARC-Compact的推出与潜在市场影响进行了分析。尽管市场反响有限,英伟达仍未放弃向电信行业销售AI芯片的尝试。不过这家GPU巨头似乎正在转向

C114讯 北京时间5月21日消息(岳明)Light Reading在一篇最新报道中针对英伟达ARC-Compact的推出与潜在市场影响进行了分析。

尽管市场反响有限,英伟达仍未放弃向电信行业销售AI芯片的尝试。不过这家GPU巨头似乎正在转向中低端市场,并在最新推出的RAN解决方案中弱化了对AI的强调。如果说以著名计算机奇才兼海军少将命名的Grace Hopper芯片组是一艘豪华超级游艇,那么近日发布的ARC-Compact则像是一艘配置简化、功能精简的经济型船只。

去年发布的搭载Grace Hopper及后续Grace Blackwell的ARC服务器主要面向部署集中式RAN(C-RAN)的电信运营商,旨在通过就近数据中心支撑多基站运行。而全新推出的ARC-Compact专为分布式RAN(D-RAN)基站部署设计,这一架构转变将完全改变技术需求与经济模型。

图:英伟达ARC-Compact产品图。

ARC-Compact的核心组件是基于软银旗下Arm架构的Grace CPU及L4 Tensor Core GPU。相较于Hopper和Blackwell GPU,该解决方案更加轻量级,适用于一些边缘视频处理及推理任务,但无法胜任大语言模型训练或高强度AI运算。

在官方技术博客中,英伟达将ARC-Compact描述为“高性价比、高能效”的解决方案,适用于“低时延AI工作负载与RAN加速”。但即便L4 Tensor Core的配置也可能超出实际需求。当前市场竞争有限,仅有三家RAN设备商可能采用该技术,且其关注重点更倾向于Grace CPU而非其他GPU。

CUDA架构推进遇阻

这三家设备商为爱立信、诺基亚与三星,它们均已对虚拟化RAN(vRAN)技术进行投资。该技术以通用CPU替代了5G网络中常见的专用集成电路(ASIC)。英伟达提出的AI-RAN是这一概念的演进,它建议保留CPU用于处理计算强度较低的工作负载,同时引入GPU作为Layer 1的“内联”加速器——Layer 1在RAN软件栈中属于资源密集型部分。

当前的问题在于,上述三大设备商均未展现出采用英伟达统一计算设备架构(CUDA)来基于GPU进行RAN开发的强烈意愿。爱立信与三星更倾向于采用“旁路(lookaside)”vRAN架构,该方案为实现硬件独立性,致力于最大限度将软件保留在CPU运行。在现行部署中,仅Layer 1中的高负载任务——前向纠错(FEC)需使用硬件加速器。

爱立信表示,在试验环境中,其为英特尔x86架构CPU编写的软件经少量修改即可移植至Grace平台。这意味着即便最终采用GPU进行任何RAN计算,也仅用于FEC处理。三星同样在Grace平台进行软件测试,并在最近明确表示不考虑采用Layer 1内联加速器。“当CPU无法提供足够容量时,才需要内联加速器。”该公司近期通过邮件向Light Reading表示,“随着技术的进步,CPU已具备支持增强容量的能力,我们预计即使没有内联加速器也可支持足够的容量。”

诺基亚则另辟蹊径,将vRAN资源集中投入内联架构。但其Layer 1加速器来自Marvell Technology而非英伟达,且该公司承认转向CUDA架构需完全重写代码。诺基亚移动网络业务集团负责人Tommi Uitto在今年3月MWC巴塞罗那期间表示,除非电信运营商采用GPU进行主流AI推理,否则几乎没有必要进行此类重构开发。

“在这种情况下,大部分计算将用于Layer 1之外的工作负载,那么使用Layer 1加速器也就无关紧要了。”他当时指出,“最终,我们希望在GPU中也实现Layer 1。”在此之前,诺基亚对英伟达技术的关注点更可能聚焦于将Grace用于Layer 1以上的功能模块。

复苏边缘计算的设想

如果说将Grace Blackwell芯片作为AI推理的关键组件部署于电信数据中心已难以想象,那么ARC-Compact就更难扮演这一角色了。委婉而言,如今关于电信运营商可以从超大规模云服务商(hyperscaler)与其他数据中心企业服务不足的众多地点提供AI 推理服务并实现盈利的构想近乎不切实际,这听起来像是试图重振边缘计算的又一次尝试。

甚至连电信运营商自身亦对此缺乏信心。Omdia近期开展了一项调查,询问受访者认为未来大多数AI处理将发生在何处。仅17%的受访者回答是基站与枢纽站点,另有6%选择了中心机房与前端站点。占比高达43%的最主流答案为终端用户设备。电信运营商似乎处于终端设备与hyperscaler云服务之间的无人区,他们相较于后者的唯一优势在于更低的网络时延。

遗憾的是,对于一个中等规模的国家来说,那种需要大量站点才能支撑的超低时延服务需求几乎为零。Omdia高级首席分析师Kerem Arsal在最近于伦敦举行的一场活动上指出,AI-RAN方案的负面因素目前仍远超其优势。“此外,hyperscaler对边缘计算及合作伙伴关系的兴趣有所消退,部分原因在于其商业模式未必会给边缘计算带来那么多回报。”他分析称,电信运营商在边缘计算方面迄今尚未展现“具有说服力的差异化价值”。

随着业界对英特尔未来前景的疑虑升温,Grace的出现显得恰逢其时。此前,英特尔是vRAN CPU领域的唯一选择。若RAN供应商能证明其软件可近乎零修改地在x86与Arm架构之间进行迁移,则标志着其已实现底层硬件解耦。同时,CPU性能的持续提升对长期贬低其能力的厂商构成挑战。英伟达CEO黄仁勋曾于去年9月表示:“CPU无法跟上ASIC的工作负载处理能力。”

Kerem Arsal指出:“AI处理架构可能从当前以GPU为核心的形态逐步向性能更强的CPU倾斜。此外,总体而言,模型轻量化趋势显著,设备自主处理关键AI工作复杂的可能性正在提升。” 这一趋势显然与黄仁勋的预期背道而驰。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1