由中国香港举办的KubeCon+Cloud NativeCon+OpenSourceSummit+AI_dev China 2024盛会于8月21日至23日圆满落幕。此次盛会由Linux基金会与云原生计算基金会(CNCF)联合主办,汇聚了全球云原生企业和开源生态建设的前沿力量。
华为作为全球云原生领域的领军者与开源生态建设的积极推动者,展示了其在多领域的开源成果,并与业界共同探讨技术与解决方案,旨在推动云原生与AI的融合,加速全球智能化的进程。
据ITBEAR了解,华为首席开源联络官任旭东在大会上发表了题为“Cloud-Native X AI : 开源加速全球智能化”的主题演讲。他深入探讨了云原生与AI的发展趋势,并分享了华为在应用实践及社区建设等方面的成果。
任旭东指出,人工智能自1956年诞生以来,已经历三次产业浪潮,如今正逐步走向AGI时代,AI的发展重点也逐渐从训练转向推理。同时,他也回顾了云原生的发展历程,从服务器阶段到云化阶段,再到如今的云原生阶段,每个阶段都见证了技术与应用的不断深化与融合。
自2023年起,AI再次迎来爆发,云原生也进入了AI算力阶段。CNCF基金会推出了Cloud native AI工作组,并给出了云原生AI的参考架构。任旭东表示,开放正在推动云原生与AI两大技术方向的融合,从Cloud Native for AI和AI for Cloud Native两个方向进行双向演进。
在Cloud Native for AI的实践方面,华为云近年来陆续开源了KubeEdge、Volcano、Karmada等项目,这些项目在业界受到了广泛的关注与支持,并得到了实际应用。例如,彭博社采用Karmada来管理多个数据中心的计算资源,构建了统一的作业编排入口,从而简化了底层基础设施的复杂性,提高了计算资源的利用率,并增强了业务的敏捷性。
Bilibili作为拥有上亿月活用户的视频平台,对AI训练任务和视频编解码任务有着极高的效率需求。任旭东介绍,B站使用了Volcano作为AI/Big Data/编解码任务的调度器进行作业和资源管理,通过优化Volcano性能,大幅降低了Job的更新频率,提高了视频编解码任务的吞吐量。
在AI for Cloud Native领域,华为持续进行开源创新,与全球云原生社区共同发展。作为中国生态领先的开源AI框架,MindSpore的LLMOps为云原生带来了更多创新。随着MindSpore 2.3版本的发布,为LLMOps提供了可落地的解决方案,包括在线高性能推理、端到端的MindSpore流水线等。
同时,openEuler作为中国领先的开源服务器操作系统,也带来了与AI结合的全新智能方案升级。大模型智能体EulerCopilot为操作系统开发运维带来了全新智能体验,而智能操作系统则进一步推动了云原生的全面创新。
任旭东还在现场宣布了openEuler开源社区与CNCF基础设施团队的合作成果——基于openEuler的CNCF CI/CD已经正式上线。这将为CNCF开发者带来更多的OS选择及更多算力资源,为CNCF社区带来更加智能的基础设施,并鼓励CNCF社区项目体验。
最后,任旭东表示:“我们坚信云原生是AI的最佳底座,必将加速AI的应用创新。同时,AI也将从Devops走向LLMOPS,使能云原生开发新范式,加速云原生行业的落地。”华为将继续携手企业和开发者,积极投身于AI和云原生领域,共同应对挑战,构建全球智能化。