百度放大招:文心大模型 4.5 系列 10 款模型全开源

27次阅读
6 月 30 日,百度正式将文心大模型 4.5 系列模型开源,涵盖了包含 47B、3B 激活参数的混合专家(MoE)模型,以及 0.3B 参数的稠密型模型等在内的 10 款模型 ,做到了预训练权重和推理代码的完全开源。现在,文心大模型 4.5 开源系列已在飞桨星河社区、HuggingFace 等平台上线,开发者可下载部署使用;同时,开源模型 API 服务在百度智能云千帆大模型平台也能使用 。其实早在今年 2 月,百度就预告了文心大模型 4.5 系列将推出,并明确 6 月 30 日正式开源。

百度放大招:文心大模型 4.5 系列 10 款模型全开源

此次百度一口气开源 10 款文心大模型 4.5 系列模型,不管是独立自研模型数量占比、模型类型数量,还是参数丰富度、开源宽松度与可靠性等方面,在行业内都处于领先。
据悉,文心大模型 4.5 开源系列针对 MoE 架构,提出了创新的多模态异构模型结构,这种结构适用于从大语言模型向多模态模型的持续预训练范式,在保证甚至提升文本任务性能的同时,极大地增强了多模态理解能力 。其出色性能主要源于多模态混合专家模型预训练、高效训练推理框架,以及针对模态的后训练等关键技术。
文心大模型 4.5 开源系列基于飞桨深度学习框架,进行高效训练、推理与部署,在大语言模型预训练中,模型 FLOPs 利用率(MFU)达到 47% 。实验显示,该系列模型在多个文本和多模态基准测试里达到了 SOTA 水平,尤其在指令遵循、世界知识记忆、视觉理解和多模态推理任务上表现亮眼 。
文本模型方面,文心大模型 4.5 开源系列基础能力强,事实准确性高,指令遵循能力突出,推理和编程能力优秀,在多个主流基准评测中超越了 DeepSeek-V3、Qwen3 等模型 。多模态模型方面,该系列具备卓越的视觉感知能力,熟知丰富视觉常识,实现思考与非思考统一,在视觉常识、多模态推理、视觉感知等主流多模态大模型评测中,优于闭源的 OpenAI o1 。轻量模型上,文心 4.5-21B-A3B-Base 文本模型与同量级的 Qwen3 效果相当,文心 4.5-VL-28B-A3B 多模态模型是目前同量级中最好的多模态开源模型,和更大参数的模型 Qwen2.5-VL-32B 相比也不逊色 。
文心大模型 4.5 开源系列权重遵循 Apache 2.0 协议开源,支持学术研究和产业应用 。并且,基于飞桨提供的开源产业级开发套件,能广泛兼容多种芯片,降低了模型后训练和部署的门槛 。
作为国内较早投身 AI 研发的企业,百度在算力、框架、模型到应用的四层布局中,构建了显著的 AI 全栈技术优势 。飞桨作为中国自主研发、功能丰富、开源开放的产业级深度学习平台,基于多年的开源技术与生态积累,此次文心大模型 4.5 开源系列同步升级发布了文心大模型开发套件 ERNIEKit 和大模型高效部署套件 FastDeploy,为文心大模型 4.5 系列及开发者提供便捷工具和全流程支持 。
值得一提的是,文心大模型 4.5 系列开源后,百度实现了框架层与模型层的 “双层开源” 。
正文完
 0