作者:Arm 首席执行官 Rene Haas
人工智能 (AI) 具有超越过去一个世纪所发生的所有变革性创新的潜力,它在医疗保健、生产力、教育等领域为社会带来的益处将超乎我们的想象。为了运行这些复杂的 AI 工作负载,全球数据中心所需的计算量需要以指数级规模进行扩展。然而,这种对计算无止尽的需求也揭示了一个严峻的挑战:数据中心需要庞大的电力来驱动AI这一突破性技术。
当今的数据中心已经消耗了大量的电力——全球每年需要 460 太瓦时 (TWh) 电力进行支持,这个数字等同于整个德国的用电量。而 AI 的兴起预计将在 2030 年把该数字提高三倍,意味着将超过印度这一世界上人口最多国家的总耗电量。
未来的 AI 模型将持续变得更大、更智能,在带动对更多计算能力的需求的同时,对电力的需求也会增加,从而成为良性循环的一部分。而找到降低这些大型数据中心电力需求的方法对于实现社会性突破和兑现 AI 的承诺至关重要。
换言之,没有电力就无法实现 AI,企业需要重新思考如何应对能效问题的方方面面。
重新构思 AI 的未来——一个由 Arm 平台驱动的未来
Arm 最初的产品就是为使用电池的设备而设计的,并推动了移动电话的变革。因此,深植于 Arm 的能效 DNA能使业界重新思考应如何构建芯片来满足 AI 日益增长的需求。
在典型的服务器机架中,仅计算芯片就可以消耗超过 50% 的电力预算。工程团队正在寻找各种可以降低该数字的方法,每一瓦特的减少都至关重要。
正因为此,全球最大的 AI 头部云服务提供商们转而采用 Arm 技术来降低功耗。与同行业中的其他产品相比,Arm 最新的 Arm Neoverse CPU 是面向云数据中心,性能最高、最节能的处理器。Neoverse 为头部云服务提供商提供了定制芯片的灵活性,以优化其苛刻的工作负载,同时提供领先的性能和能效。每一瓦特的节省都可以用来实现更多的计算。这也正是为什么亚马逊云服务 (AWS)、微软、Google 和甲骨文 (Oracle) 现在都通过 Neoverse 技术,处理其通用计算和基于 CPU 的 AI 推理和训练。Neoverse 平台正在成为云数据中心领域的事实标准。
从近期的行业内的发布来看:
· 基于 Arm 架构的 AWS Graviton:与其他同行业产品相比,Amazon Sagemaker 的AI 推理性能提高了25%,Web 应用程序提高了30%,数据库提高了40%,效率则提升了60%。
· 基于 Arm 架构的 Google Cloud Axion:与传统架构相比,其性能和能效分别提高了 50% 和 60%,可为基于 CPU 的 AI 推理和训练、YouTube、Google 地球等服务提供支持。
· 基于 Arm 架构的 Microsoft Azure Cobalt:性能高出同类产品 40%,并为 Microsoft Teams 等服务提供支持,与 Maia 加速器的耦合驱动 Azure 的端到端 AI 架构。
· Oracle Cloud 采用基于 Arm 架构的 Ampere Altra Max:与传统同类产品相比,每机架服务器的性能提高 2.5 倍,能耗降低 2.8 倍,并用于生成式 AI 推理模型,诸如摘要、大语言模型训练的数据的标记化,以及批量推理用例。
显然,Neoverse 极大地提升了云端通用计算的性能和能效。此外,合作伙伴也发现在加速计算方面,Neoverse 也能带来同样的益处。大规模 AI 训练需要独特的加速计算架构,例如,NVIDIA Grace Blackwell 平台 (GB200) 结合了 NVIDIA 的 Blackwell GPU 架构与基于 Arm 架构的 Grace CPU。这种基于 Arm 技术的计算架构可实现系统级设计优化,与面向大语言模型的 NVIDIA H100 GPU 相比,可带来 25 倍的能耗降低,并将每个 GPU 的性能提高 30 倍。这些优化能够带来颠覆性的性能和节能效果,而这一切都得益于 Neoverse 所带来的前所未有的芯片定制灵活性。
随着基于Arm 架构的部署持续扩大,这些企业将可以节省高达 15% 的数据中心总能耗。这些巨幅的节省可以用来在相同的功率范围内驱动额外的 AI 运算,而不会增加能源负担。换言之,这些节能相当于可以额外运行 20 亿次 ChatGPT 查询,驱动四分之一的日常网络搜索流量,为 20% 的美国家庭提供照明,或为与哥斯达黎加面积相仿的国家进行供电。这对改善能源消耗和环境可持续性产生了惊人的影响。
Arm CPU 正在从根本上推动 AI 变革,并造福地球。Arm 架构是未来AI 计算的基石。
04-24 16:48
04-24 16:11
04-24 14:58
04-24 14:58
04-24 14:57
04-24 14:02
04-24 11:45
04-24 11:45
04-24 11:44
04-24 11:44