盘古大模型

盘古NLP大模型

盘古NLP大模型系列

模型规格说明 训练和部署盘古系列模型、三方开源模型请登录 ModelArts Studio控制台

盘古NLP大模型系列

模型规格说明 训练和部署盘古系列模型、三方开源模型请登录 ModelArts Studio控制台

模型系列

N1

小参数量
慢思维

N2

中参数量
慢思维
长序列

N4

大参数量
超大参数718B
MOE
简介
轻量化模型

盘古NLP十亿级大模型,是华为云研发的盘古系列大模型中的轻量级自然语言推理模型,支持对话问答、文案生成、阅读理解等基础功能,适合在对效率要求较高的环境中部署使用。

性价比模型

盘古NLP百亿级大模型,默认优选的最具性价比模型,兼具模型效果和推理性能,擅长回答数学和推理问题,支持较长序列推理和慢思考过程,最长可支持256K序列长度推理部署。

新品发布

盘古NLP千亿级大模型,广泛适用于各种复杂文本任务场景,是盘古系列效果最好的模型。最新发布的718B深度思考模型采用稀疏高效的MOE新架构,增加多语言、推理类数据,达到国内模型第一梯队。

序列长度

32K、128K

4K、32K、128K、256K

4K、32K、128K

支持特性

微调、DPO、评测、压缩

预训练、微调、DPO、评测、压缩

预训练、微调、DPO、评测、压缩

部署方式

云上部署

云上部署、边缘部署

云上部署

模型系列

N1

小参数量
慢思维

N2

中参数量
慢思维
长序列

N4

大参数量
超大参数718B
MOE
简介
轻量化模型

盘古NLP十亿级大模型,是华为云研发的盘古系列大模型中的轻量级自然语言推理模型,支持对话问答、文案生成、阅读理解等基础功能,适合在对效率要求较高的环境中部署使用。

性价比模型

盘古NLP百亿级大模型,默认优选的最具性价比模型,兼具模型效果和推理性能,擅长回答数学和推理问题,支持较长序列推理和慢思考过程,最长可支持256K序列长度推理部署。

新品发布

盘古NLP千亿级大模型,广泛适用于各种复杂文本任务场景,是盘古系列效果最好的模型。最新发布的718B深度思考模型采用稀疏高效的MOE新架构,增加多语言、推理类数据,达到国内模型第一梯队。

序列长度

32K、128K

4K、32K、128K

支持特性

微调、DPO、评测、压缩

预训练、微调、DPO、评测、压缩

预训练、微调、DPO、评测、压缩

部署方式

云上部署

云上部署、边缘部署

云上部署

①以上描述为模型系列特性,具体模型版本支持的特性请查看模型规格说明

②ModelArts Studio已适配DeepSeek R1/V3、Qwen3系列等第三方开源模型

功能介绍

功能介绍

为什么选择盘古NLP大模型

超千亿大模型参数

超千亿大模型参数

  • 最新发布的718B深度思考模型采用稀疏高效的MOE新架构,探索不同专家异构方式

  • 实现行业知识检索回答、文案生成、阅读理解等基础功能的同时具备插件调用、模型调用等高阶特性

  • 在智能客服、创意营销、会议助手、代码助手、企业信息搜索等多个典型场景,提供AI技术支撑

海量数据集,多种训练方式

海量数据集,多种训练方式

  • 庞大的高质量清洗数据集,持续优化基础模型,打造业界最强中文理解/生成能力

  • 多种模型训练工作流,支持预训练、全量微调、LoRA微调、强化学习工作流

Agent应用中枢,多种安全防护

Agent应用中枢,多种安全防护

  • 盘古NLP大模型作为Agent应用中枢,支持对接知识库、插件等工具,并支持工作流画布式编排

  • 支持对话过程隐私防泄漏,推理阶段输入输出敏感信息过滤;支持模型加密、模型混淆保护

应用场景

应用场景

政企知识检索

基于政企知识进行模型训练,通过对话交互,精准获取用户需求的信息,提高知识获取效率,带来有温度的人工智能服务体验。

智能创意营销

轻松完成多种风格类型的写作,提供创意的商业文案,帮助产品吸引更多的潜在客户,释放无穷创作活力。

行业API助手

轻松集成和调用接口,打通应用的最后一公里,提升整个业务系统的性能和效率。

行业研发助手

基于业务编程需求生成、补全C++、Java、python等编程语言,及各种编程语言的转换,帮助程序员大幅提升研发效率。

政企会议助手

根据流水账改写成标准会议议程,基于会议内容生成文本摘要等,为会议组织者、与会者提供高效便捷的会议体验

即刻领取

免费试用

产品
开启您的大模型之旅
企业免费试用

您可能感兴趣的产品

您可能感兴趣的产品