近年来,人工智能领域迎来爆发式发展,其中大语言模型(LLM)无疑是最耀眼的明星。然而,伴随模型参数规模呈指数级增长的,是对算力近乎无限的需求,这如同悬在LLM广泛应用头上的一把达摩克里斯之剑。算力瓶颈不仅限制了模型的训练速度和推理效率,也大幅提高了研发成本,阻碍了技术的普及和创新。为了打破这一僵局,混合专家模型(MoE)架构应运而生,它以其独特的优势,在降低计算成本、提升推理效率方面展现出巨大潜力,成为了推动LLM走向更广阔应用的关键技术之一。在国内,以蚂蚁集团为代表的科技企业,积极拥抱MoE架构,并通过开源相关模型,加速了人工智能技术的普及进程,为构建更加智能化的未来社会贡献力量。

MoE架构的核心思想在于“分而治之”。它并非让一个庞大的模型处理所有任务,而是将模型拆分成多个“专家”,每个专家负责处理特定类型的任务。在推理过程中,一个“门控网络”会根据输入数据的特点,选择最合适的若干个专家进行处理,而其他专家则处于休眠状态。这种方式大大降低了计算量,因为每次推理只需要激活部分模型参数,从而显著提升了推理效率。与传统的大模型相比,MoE模型能够在保持甚至提升性能的同时,大幅降低计算成本,为大模型的普及应用提供了可能。

在通用语言模型领域,蚂蚁集团的Ling系列模型是其探索MoE架构的重要实践。早在Ling-plus及Ling-lite(0220版本)的研发过程中,蚂蚁集团就积累了丰富的经验,采用了轻量级分布式分析、异构硬件自适应训练策略以及MoE架构优化等技术。这些技术不仅提升了模型性能,也为后续模型的研发奠定了坚实的基础。近期,蚂蚁集团加速了开源步伐,陆续推出了Ring-lite、Ling-Coder-Lite以及Ming-lite-omni等一系列模型,进一步丰富了其开源生态,为开发者提供了更多选择和可能性。

Ring-lite是一款轻量级、完全开源的MoE大语言模型,专为复杂推理任务设计。它基于公开可用的Ling-lite-1.5架构构建,拥有168亿总参数。尽管参数规模相对较小,Ring-lite却能在多项推理榜单上取得显著成绩,实现了轻量级推理模型的SOTA(State-of-the-Art)效果。这一成就的背后,是蚂蚁集团独创的C3PO强化学习训练方法,该方法能够有效地提升模型的推理能力。C3PO强化学习训练方法通过模拟人类在复杂推理过程中不断尝试和学习的过程,使得模型能够在没有明确指导的情况下,自主地探索更有效的推理路径,从而提高推理的准确性和效率。Ring-lite的开源,为研究人员和开发者提供了一个优秀的轻量级推理模型,可以用于各种实际应用,例如问答系统、文本摘要和机器翻译等。

Ling-Coder-Lite是另一款基于MoE架构的代码大语言模型,专注于代码生成和处理领域。与传统的代码生成模型相比,Ling-Coder-Lite能够将推理效率提升1.5至2倍,在代码生成、代码理解和代码修改等方面取得了显著进展。它不仅能处理简单的代码生成任务,更能够胜任复杂的代码理解和修改工作,极大地提高了开发效率。Ling-Coder-Lite的出现,标志着AI在软件开发领域的应用进入了一个新的阶段,它将有望成为程序员的得力助手,辅助完成各种代码任务,从而释放程序员的创造力,让他们能够专注于更高层次的设计和创新。例如,Ling-Coder-Lite可以帮助程序员自动生成代码注释,减少重复性工作;可以帮助程序员快速定位代码中的错误,提高代码质量;还可以根据程序员的需求,自动修改代码,实现代码的重构和优化。

除了专注推理效率和代码生成,蚂蚁集团还在积极布局多模态大模型领域。Ming-lite-omni的开源,标志着蚂蚁集团在多模态AI领域迈出了重要一步。这款统一多模态大模型支持理解和生成模型合在一起调用,或单独完成任务,具有全模态输入和输出能力,支持音频、图像、文本等多种模态的数据处理。这意味着Ming-lite-omni可以同时处理来自不同来源的信息,例如,它可以根据用户提供的图片和文字描述,生成相应的音频内容,或者根据用户提供的音频内容和文字描述,生成相应的图片内容。Ming-lite-omni基于Ling-lite构建的MoE架构,总参数22B,激活参数3B,在多项理解和生成能力评测中,性能与10B量级领先的多模态大模型相媲美。Ming-lite-omni的发布,体现了蚂蚁集团对大模型应用场景的深刻理解,旨在为用户提供更加智能、便捷的多模态AI服务,例如智能客服、智能助手和智能创作等。

在降低大模型训练成本方面,蚂蚁集团也取得了显著进展。通过采用国产AI芯片进行训练,蚂蚁集团成功将计算成本降低了约20%。这不仅降低了模型研发的经济成本,也为国产AI芯片的应用提供了有力支撑。此外,蚂蚁集团还开源了百灵系列MoE模型,包括参数规模168亿的Ling-Lite和参数规模高达2900亿的Ling-Plus,并提出了一种创新的训练方法,为大模型的低成本训练提供了新的思路。这种创新的训练方法,可以有效地降低模型训练的资源消耗,提高训练效率,为更多企业和研究机构参与大模型研发提供了可能。随着国产AI芯片的性能不断提升,以及创新的训练方法不断涌现,相信未来大模型的训练成本将进一步降低,从而加速人工智能技术的普及和应用。

蚂蚁集团在MoE大模型领域的持续投入和开源贡献,为人工智能的未来发展指明了方向。通过不断优化MoE架构、探索新的训练方法、以及积极拥抱国产AI芯片,蚂蚁集团不仅推动了国内人工智能技术的发展,也为解决算力瓶颈、降低训练成本提供了有益的探索。从Ring-lite到Ming-lite-omni,再到Ling-Coder-Lite,蚂蚁集团不断推出新的模型,覆盖推理、代码生成、多模态等多个应用场景,展现了其强大的技术实力和创新能力。随着MoE架构的不断完善和国产AI芯片的进一步发展,我们有理由相信,蚂蚁集团将在人工智能领域取得更大的突破,为构建更加智能化的社会贡献力量。人工智能的未来,将是更加高效、经济、智能的未来,而MoE架构和国产AI芯片,将是实现这一未来的关键驱动力。