华为开源盘古大模型:70 亿 + 720 亿参数架构开放

27次阅读
【华为开源盘古大模型核心信息速览】
华为技术有限公司于 6 月 30 日官宣重大开源动作,正式开放盘古 70 亿参数稠密模型、盘古 Pro MoE 720 亿参数混合专家模型,同步开源基于昇腾芯片的模型推理技术。据官方公告,盘古 Pro MoE 72B 模型权重、基础推理代码及昇腾架构下的超大规模 MoE 推理代码已率先上线开源平台,盘古 7B 模型权重与推理代码也将于近期完成开源部署。

华为开源盘古大模型:70 亿 + 720 亿参数架构开放

开源矩阵解析:技术架构与生态价值双重释放
  • 模型规模与技术特性
    • 盘古 7B 稠密模型:聚焦通用场景高效落地,70 亿参数架构平衡性能与算力成本,适合企业级应用快速集成。
    • 盘古 Pro MoE 72B 混合专家模型:采用 “稀疏激活 + 多专家并行” 架构,在保持千亿级模型能力的同时大幅降低计算开销,典型场景下推理效率提升 3 倍以上。
  • 昇腾推理技术开源:开放基于昇腾芯片的分布式训练框架、内存优化算法及算子融合技术,助力开发者实现大模型在昇腾平台的高效部署。
华为生态战略再进阶:推动 AI 千行百业落地
此次开源被视为华为昇腾生态战略的关键节点 —— 通过开放核心模型能力与底层硬件适配技术,一方面降低大模型研发与应用门槛,推动学术研究与产业创新协同发展;另一方面强化昇腾芯片在 AI 基础设施领域的技术壁垒,加速 AI 技术向金融、制造、医疗等行业渗透,实现 “技术开源 - 生态繁荣 - 价值创造” 的闭环。
开发者接入指引与开源平台入口
目前,盘古 Pro MoE 72B 相关资源已在华为开源平台上线,开发者可获取模型权重、推理代码及昇腾适配文档。盘古 7B 模型资源将按计划逐步开放,持续关注官方公告可获取最新动态。
正文完
 0