模力全开·适配共赢:上海站Modelers GeekDay圆满落幕,共创国产AI适配新生态

来源 | 魔乐社区   

2025年09月25日 11:16  

本文1861字,约3分钟

在当前人工智能技术飞速发展与国产化进程加速的双重背景下,大模型推理适配已成为推动产业智能升级的关键环节。然而,国产芯片与开源模型在协同适配中仍面临性能优化、工具链支持、跨平台部署等诸多挑战,亟需社区、厂商与开发者协同创新,共建高效、开放的适配生态。

9月21日,由魔乐社区主办的“模力全开·适配共赢——模型国产化推理适配实践Modelers GeekDay”在上海静安区荟立方SPACE成功举办。本次活动以开源协同为核心,聚焦热门模型的国产化推理适配实践,通过主题演讲、圆桌对话与开发者实战工坊,串联模型、芯片、工具三方技术力量,为开发者提供从理论到实践的全链路赋能。活动现场吸引了众多个人开发者、企业技术负责人与行业专家参与,共同探讨国产模型落地中的技术突破与生态建设路径。

开源赋能生态:

从社区共建到国产适配新范式

魔乐社区联合创始人 李宝龙

魔乐社区联合创始人李宝龙在开场致辞中回顾了开源运动对技术发展的深远影响,从Stallman的GNU计划到Torvalds的Linux内核,再到Hinton推动的神经网络开源浪潮,强调了开源协作在推动技术普惠中的核心作用。他介绍,魔乐社区通过提供免费国产算力资源、分层技术支持和社区荣誉体系,持续助力开发者突破模型适配中的技术瓶颈,实现从“探索者”到“领航者”的成长路径。

vLLM-Ascend

构建高性能推理的开放引擎

华为主任工程师 魏谨谦

华为主任工程师魏谨谦在《vLLM-Ascend介绍&RL场景性能优化》演讲中指出,vLLM目前已成为最具影响力的开源推理引擎之一,用户生态活跃、贡献意愿强烈。华为团队于2025年6月成功进入vLLM主项目Maintainer席位,负责硬件插件模块,推动vLLM-Ascend项目Star数突破1.1k。他重点分享了vLLM-Ascend在调度机制、图编译优化(ACLGraph)、FFN全融合算子等方面的创新,在prefill场景中实现20%~30%的性能提升,并为强化学习等高精度场景提供FP16计算支持。

Chitu推理引擎:

打破跨平台适配壁垒

清程极智技术专家李健

清程极智技术专家李健在《Chitu推理引擎:构建大模型国产化推理的高效适配桥梁》演讲中,深入剖析了主流推理引擎和国产算力硬件适配面临的“m×n”组合爆炸问题。他指出,Chitu通过跨平台复用设计模式,实现m种模型和n种硬件的适配关系从“m×n”到“m+n”的转变,并通过融合算子分发、LayoutasaType抽象、软FP8/FP4量化等多项联合优化技术,显著降低推理门槛与成本。他特别展示了Chitu在沐曦NativeLayout矩阵乘优化、GLM-4.5国产算力0day适配等方面的经验,强调开源共建是推动国产适配生态成熟的关键。

夏日的温柔小组讨论:

八大议题深度碰撞,共谋适配破局之道

在接下来的分组讨论环节,80余位开发者分为多个小组,围绕跨芯片部署实践、厂商协作机制、适配评价体系、开发者成长路径、自动化流水线建设、经验沉淀与方法论提炼、贡献激励体系、下一代适配技术展望等八大核心议题展开热烈讨论。现场讨论气氛热烈,开发者们不仅分享了在实际项目中遇到的技术难题,更就如何构建开放、协同的适配生态提出了诸多建设性意见。现场共识认为,需通过社区知识库共建、标准化接口制定、系统化培训工作坊等方式,构建更加完善的适配支撑体系,真正实现"一次适配、多处运行"的技术愿景。

实战工坊:

从理论到实践,凭实战破壁垒

下午的开发者实战工坊环节将活动推向高潮。在华为工程师李成鑫、上市外企技术总监原菲、魔乐社区技术专家侯功成的指导下,参与者们基于vLLM-Ascend和Llama Factory工具,现场完成了开源模型的下载、适配、优化与上传展示全流程操作。最终依据完成速度与质量,评审团评选出3个优胜小组(共15人)与6名优秀个人,其中荣获“魔乐适配贡献者”称号的开发者从第一名至第六名分别是:刘苏、高源、豆坤、Ricky、谢晓文与韩杰。

本次Modelers GeekDay不仅是技术分享的舞台,更是生态合作的起点。通过连接模型开发者、芯片厂商、工具链提供方与广大社区开发者,魔乐社区致力于打造一个开放、协同、持续进化的国产AI模型适配生态。

未来,社区将继续推出更多培训、认证与激励计划,帮助开发者在“推理适配之路”上走得更稳、更远。模力已全开,适配必共赢——期待下一次相聚,共同推动中国AI“芯”生态的繁荣与发展!

财经号所发布文章之版权属作者本人或相关权利人所有,文章仅为作者观点,不代表《财经》立场。