正如 。助I作载 Arm。力轻工程部软件高档副总裁 Mark Hambleton 在《2025 年芯片新思维》陈述中所说:人工智能 。松加( 。业负AI 。助I作载) 的力轻未来展开离不开软硬件的协同。
但是松加 ,在由 Arm 资助的业负新 CIO 陈述中所述,开发者 。助I作载作业流程的力轻碎片化约束了开发者创建和扩展新 AI 使用的速度,而这也是松加现在其所面对的最大应战之一 。
Arm 深知软件关于开释 AI 的业负真实潜力至关重要 ,因此从根底架构和整个技能栈下手 ,助I作载致力于简化 AI 开发流程,力轻并支撑新 AI 使用和作业负载完成无缝功用加快。松加
根底架构。
Arm 继续展开本身架构,作为软硬件之间的重要 。接口。。现在 ,从云端到边际侧的广泛商场中,Armv9 架构已成为。智能手机 。 、数据。中心。 、高功用核算和轿车使用等范畴的现代技能根底。
Arm 不断为最新的架构引进新的功用,例如此前推出的可弹性矩阵扩展 (SME) 和可弹性向量扩展 (SVE2) ,有助于在各类使用中加快生成式 AI 和常见 。机器学习 。(ML) 作业负载。SME 借由在通用指令会集引进杂乱矩阵处理才能,使开发者可以在其 AI 使用中完成拔尖功用,并无缝迁移到不同的生态系统。由此不只扩展了运转 AI 作业负载的硬件规模,还明显提高了用户体会。
CPU。对开发者的价值。
上述架构特性都集成到了 Arm 的 CPU 中,使之成为软件开发者首选的方针渠道 。因为 Arm CPU 广泛使用于从云端到边际侧的各种使用,合适作为大多数 AI 推理作业负载的直接方针渠道 ,被广泛使用于数十亿台设备中,例如当今的。智能 。手机。 ,以及全球的云端和数据中心。经过挑选 Arm CPU 作为方针渠道 ,开发者可以以更多类型的数据格式运转更广泛的软件 ,而无需为专用 NPU 开发多个版别的代码 。
CPU 为开发者供给了所需的一致性,防止了定制硬件解决方案所带来的碎片化和功率低下。
正如 Hambleton 在《2025 年芯片新思维》陈述中指出 :AI 结构的互操作性是开发者的中心诉求 。因此开发者一般默许挑选 CPU 后端,因为 CPU 的普遍性保证了更广泛的兼容性 。
此外 ,推进 AI 作业负载扩展的要素不只限于架构的前进 。
在 CIO 陈述中 ,Arm 工程部机器学习工程副总裁 Nick Horne 表明 ,AI 现已从依靠云端的巨大模型演化为可在边际侧或端侧运转的更小、更高效的模型。他指出 :现在 ,有些超卓的模型可在你随身携带的设备上运转并供给高质量的成果 ,某些情况下乃至可以彻底在 CPU 上运转。
对开源不变的许诺。
Arm 与开源社区广泛协作 ,致力于推进 AI 的遍及 ,为开发者供给快捷途径,使开发者可以轻松获取来自广泛 Arm 生态系统协作伙伴的硬件 ,及时使用其间的最新架构特性和功用 。
Horne 在 CIO 陈述中强调了这一办法为开发者带来的优势。他指出 :选用具有杰出硬件笼统的开源 AI 结构,可以明显防止对灵活性的影响 。
如此一来 ,开发者无需受限于特定硬件 、云服务供给商或软件渠道。
Kleidi 助力轻松加快 AI。
Arm Kleidi 很好地表现了上述优势的实践使用作用 。Kleidi 供给开发者支撑技能、资源和微内核库 ,可以为在 Arm CPU 上运转的模型轻松完成 AI 作业负载加快 。因为 Kleidi 库已集成到干流的开源 AI 结构和运转时中,包含 Google 的 Media 。Pi 。pe、Meta 的 ExecuTorch 和 PyTorch、llama.cpp ,腾讯的 Angel ,以及阿里巴巴的 MNN 。开发者无需额定作业即可取得功用优化,然后节省时间、精力和本钱。Kleidi 现已集成至 Arm 技能掩盖的一切商场 ,包含移动端、云 、数据中心、轿车和 。物联网 。范畴。
与职业抢先的生态系统协作 。
从更广泛的层面来看