华为开源 AI 容器技术 Flex:ai 算力利用率飙升至 70% 开启软件定义算力新时代

发布时间:2025-12-04 浏览:0 次

2025 11 21 日,华为在上海举办的 “2025 AI 容器应用落地与发展论坛上,正式发布并开源全新 AI 容器技术 Flex:ai。这项被誉为 算力调度操作系统的创新成果,通过三大核心技术突破将 GPU/NPU 等智算资源利用率从行业平均 30%-40% 提升至 70%,相当于让现有硬件算力 倍增,同时打破异构算力管理壁垒,为 AI 产业降本增效提供革命性解决方案。

三大核心突破 破解算力浪费行业痛点

面对 AI 产业 算力需求激增与资源闲置并存的核心矛盾,Flex:ai 基于 Kubernetes 容器编排平台构建,实现三大技术革新:

细粒度算力切分:联合上海交通大学研发的 XPU 池化框架,可将单张 GPU/NPU 算力卡精准切分为多份虚拟算力单元,切分粒度低至 10%,实现单卡同时承载多个 AI 工作负载,小模型训推场景算力利用率直接提升 30%。通过弹性资源隔离技术,确保多任务并行时的稳定性与安全性,彻底改变 一卡单任务的资源浪费现状。

跨节点算力聚合:与厦门大学联合研发的跨节点拉远虚拟化技术,将集群内各节点的空闲算力整合为 共享算力池。不仅为大模型训练等重负载提供充足算力支撑,更让缺乏智能计算单元的通用服务器通过高速网络接入远端算力资源,实现通用算力与智能算力的高效融合。

智能全局调度:携手西安交通大学打造的 Hi Scheduler 调度器,可自动感知集群负载与任务需求,结合优先级、算力规格等多维参数实现全局最优调度。即便在负载频繁波动场景下,也能保障 AI 任务平稳运行,同时支持英伟达 GPU、华为昇腾 NPU 等多品牌算力统一管理,打破硬件生态壁垒。

实测数据显示,某大型互联网公司接入 Flex:ai 后,GPU 集群利用率从 41% 跃升至 67%,年节省电费 2.3 亿元;某 AI 训练平台的异构算力利用率从 38% 提升至 69%,模型迭代周期缩短 25%

开源开放 + 跨架构兼容 构筑产业生态护城河

与英伟达 Run:ai 绑定特定算力卡的封闭模式不同,Flex:ai 采用全开源策略,向产学研各界开放所有核心技术能力,推动构建异构算力虚拟化标准体系。其核心优势在于:

跨品牌兼容:无缝支持英伟达 GPU、华为昇腾 NPU 及第三方算力卡,屏蔽底层硬件差异,为企业混合算力环境提供统一管理方案,测试显示混合部署场景下任务完成效率提升 18%,硬件采购成本降低 30%

全栈生态协同:深度整合华为昇腾、鲲鹏、鸿蒙生态,与华为云 CCE Turbo/CCI 调度策略同频,支持从端到边再到云的全场景算力调度,同时兼容 TensorFlowPyTorch 等主流 AI 框架,降低企业迁移成本。

开源社区赋能:通过代码开放、技术文档共享、开发者培训等举措,汇聚全球创新力量,加速技术迭代与行业应用落地,目前已有 7 家核心企业加入生态共建,覆盖金融、政务、智能制造等关键领域。

多行业落地开花 赋能全产业链效率革命

Flex:ai 的开源发布已在多行业展现显著价值,形成 技术 - 生态 - 应用的正向循环:

金融领域:新晨科技依托 Flex:ai 打造智能客服、风控建模解决方案,为 120 余家金融机构提供稳定算力支撑,联合华为中标邮储银行语音智能化系统项目;

政企领域:电科数字将自研智鹰智算管理平台与 Flex:ai 结合,在边端推理场景实现小批量交付,拓展智能运维、政务协同等核心场景;

智算基础设施:奥飞数据作为华为智算生态硬件伙伴,通过数据中心异构适配改造,为 Flex:ai 落地提供 8kW 高密度机柜及专业运维服务,成为区域算力节点核心支撑;

科研与教育:上海交通大学、西安交通大学等高校已将 Flex:ai 纳入科研与教学体系,助力 AI 人才培养与技术创新,相关成果已应用于军事仿真、智慧城市等复杂场景。

据测算,算力利用率每提升 10%,即可为行业节省千亿级硬件投入。随着 Flex:ai 的普及,预计 2026 年国产芯片在 AI 训练领域的占比将从 15% 提升至 35%,中小企业 AI 部署成本有望降低 40% 以上。

安全合规 + 持续迭代 夯实企业级应用基础

Flex:ai 延续华为企业级安全标准,通过资源隔离、数据加密传输等技术保障商业机密与个人隐私,所有用户算力数据不上云、不用于模型训练,仅对授权用户可见。在兼容性与扩展性方面,支持 PPTXPDF 等多格式报告导出,适配智算中心、边缘节点、企业机房等多元部署场景,可满足从中小企业轻量化需求到超大规模集群管理的全场景应用。

华为公司副总裁、数据存储产品线总裁周跃峰表示:“Flex:ai 的开源发布,标志着 AI 算力竞争从硬件堆砌转向效率深挖的新阶段。华为将通过技术开放与生态共建,让每一份算力都物尽其用,助力 AI 产业实现高质量发展。据悉,后续华为将持续迭代 Flex:ai 的调度算法,计划新增边缘计算场景适配、更细粒度算力切分等功能,并推出金融、制造等行业定制化方案。