文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古NLP大模型能力与规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样的AI训练数据集 场景化AI案例,助力AI赋能千行百业
什么是盘古大模型 盘古CV大模型能力与规格 盘古大模型用户指南 如何调用盘古CV大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样的AI训练数据集 场景化AI案例,助力AI赋能千行百业 查看全部
稳定安全的算力底座,极快至简的模型训练 稳定安全的算力底座,极快至简的模型训练 支持万节点计算集群管理 大规模分布式训练能力,加速大模型研发 多应用场景全覆盖,AI智能平台助力业务成功 多应用场景全覆盖,AI智能平台助力业务成功 大模型 实现智能回答、聊天机器人、自动摘要、机器翻译、文本分类等任务
06:06 智能问答机器人如何进行知识学习 智能问答机器人的优化训练及上线流程 02:56 智能问答机器人的优化训练及上线流程 智能问答机器人的线上运营监控 01:08 智能问答机器人的线上运营监控 智能问答机器人的购买流程及基础配置 03:12 智能问答机器人的购买流程及基础配置
AI开发平台ModelArts入门 AI平台ModelArts入门 面向开发者的一站式AI开发平台,可快速创建和部署模型,管理全周期AI工作流,助力千行百业智能升级 面向开发者的一站式AI开发平台,可快速创建和部署模型,管理全周期AI工作流,助力千行百业智能升级 购买 控制台 专家咨询
盘古大模型 PanguLargeModels 盘古大模型 PanguLargeModels 盘古大模型是面向B端行业的大模型,包含L0中5类基础大模型、L1行业大模型及L2场景模型三层架构 盘古大模型是面向B端行业的大模型,包含L0中5类基础大模型、L1行业大模型及L2场景模型三层架构
文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古预测大模型能力与规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样的AI训练数据集 场景化AI案例,助力AI赋能千行百业
基于先进的Transformer架构对算法模型进行深度优化,机器翻译效果和速度业界领先 基于先进的Transformer架构对算法模型进行深度优化,机器翻译效果和速度业界领先 数据支持 专业译员团队支撑模型训练,20年积累的高质量翻译语料库 专业译员团队支撑模型训练,20年积累的高质量翻译语料库
支持订阅AI Gallery中的算法构建模型 训练管理 支持基于不同的数据,选择不同规格的资源池用于模型训练;支持使用以下三种方式开发模型:订阅算法、自定义算法、自定义镜像 AI应用管理 支持将训练作业中得到的模型、本地开发的模型部署为AI应用,并进行统一管理;提供模型转换能力,方便能够将模型部署在不同的设备上
,只需人工提供极少量的标注数据,通过平台的自动标注功能,能够提升50%的标注效率,节省人力及时间成本;3、解决模型训练门槛高问题,可视化的模型训练界面,自动推荐训练参数,5分钟快速上手,模型训练成本降低70%;4、克服算法只能解决单一业务场景问题,通过拖拽的方式将多个模型串联起来
智慧监控AI模型综合集成了人脸识别模型、安全帽识别模型、口罩佩戴识别模型、车牌识别模型、车辆占道识别模型5种AI模型。一,人脸识别服务 人脸识别模型目前提供授权认证、模型加载、人脸注册、人脸识别、人脸删除、特征提取六个接口服务。 授权认证:需先进行授权认证,才能够正常使用人脸识别服务;
《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息 方便
产品利用移动5G通讯,结合AI视觉算法的先进技术,与战训环节深度融合,实现比武考试、体能训练、日常训练等全场景应用 实时查看训练考核数据
湘江鲲鹏目前在人工智能大模型领域拥有算力、数据、算法三大关键要素的经验积累,构建了大模型三个方面的差异化竞争力,盘古大模型AI专业服务覆盖从前期咨询、规划设计,到数据工程、模型训练,再到应用工程及模型运维的完整流程。基于华为盘古提供的AI专业服务包,致力于为企业提供一站式人工智能解决方案
云坞网络专注于利用先进的AI云计算、大数据和人工智能技术,为企业提供卓越的ChatGPT行业解决方案。帮助企业快速实现数字化、智能化和绿色化转型。 系统定制开发:我们可以为客户提供系统的定制开发服务,帮助客户实现更多的个性化功能和业务流程需求。,数据迁移:我们帮助客户将现有系统的
angChain等流行的大模型开发框架,构建企业级AI应用;团队拥有成熟的软件工程技术和管理能力。6. 大模型使用的技术支持,用户使用大模型平台,解答用户使用过程遇到的问题;大模型与应用对接集成,以及进行日常巡检、故障处理、模型升级等服务。4. 工业数据模型(CAD模型、CAE模
太杉天尊大模型AIGC场景解决方案是以AI场景解决方案为核心的全栈Maas综合方案,助力政企客户灵活部署(可公有可私有部署)。具备自研的行业模型能力,主要用于政府/公安/教育等行业的数据处理、文本处理以及多模态处理等多场景。太杉天尊大模型AIGC场景解决方案,是一款专为满足政府企
公司集成了世界领先的底层大模型,具备打通跨模型和工具链的平台,提供从需求分析、数据收集、模型设计、训练优化、评估、系统集成、用户界面设计、部署维护、合规性检查、技术支持、性能监控、扩展性设计、定制服务到持续研发一站式AI大模型定制研发服务。光启慧语是一家围绕大模型全栈开展技术研发和产品
ModelArts模型训练 ModelArts模型训练简介 ModelArts模型训练,俗称“建模”,指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为商业目的提供决策参考。训练模型的结果通常是一个或多个机器学习或深度学习模型,模型可以应用到新的数据中,得到预测、评价等结果。
ModelArts训练管理 ModelArts训练管理 ModelArts训练管理模块用于创建训练作业、查看训练情况以及管理训练版本。在训练模块的统一管理下,方便用户试验算法、数据和超参数的各种组合,便于追踪最佳的模型与输入配置,您可以通过不同版本间的评估指标比较,确定最佳训练作业。 M
ModelArts训练之超参搜索 ModelArts训练之超参搜索 ModelArts训练中新增了超参搜索功能,自动实现模型超参搜索,为您的模型匹配最优的超参。ModelArts支持的超参搜索功能,在无需算法工程师介入的情况下,即可自动进行超参的调优,在速度和精度上超过人工调优。 Mo
了解详情 盘古预测大模型 盘古预测大模型是面向结构化类数据,基于10类2000个基模型空间,通过模型推荐、融合两步优化策略,构建图网络架构AI模型。 了解详情 盘古科学计算大模型 科学计算大模型是面向气象、医药、水务、机械、航天航空等领域,采用AI数据建模和AI方程求解的方法;从海
立即购买 管理控制台 面向AI场景使用OBS+SFS Turbo的存储加速实践 方案概述 应用场景 近年来,AI快速发展并应用到很多领域中,AI新产品掀起一波又一波热潮,AI应用场景越来越多,有自动驾驶、大模型、AIGC、科学AI等不同行业。AI人工智能的实现需要大量的基础设施资
应用场景 AI技术应用场景--视觉处理与识别 AI技术应用场景--语音识别 AI技术应用场景--自然语言处理 AI技术应用场景--推荐系统 AI技术应用场景--知识图谱 AI技术应用场景--视觉处理与识别 AI技术应用场景--语音识别 AI技术应用场景--自然语言处理 AI技术应用场景--推荐系统
应用场景 AI技术应用场景--视觉处理与识别 AI技术应用场景--语音识别 AI技术应用场景--自然语言处理 AI技术应用场景--推荐系统 AI技术应用场景--知识图谱 AI技术应用场景--视觉处理与识别 AI技术应用场景--语音识别 AI技术应用场景--自然语言处理 AI技术应用场景--推荐系统
.email域名注册 什么是.email域名注册? 域名注册(Domain Registration)是用户付费获取Internet上某一域名一段时间使用权的过程。华为云域名注册服务提供域名的注册、购买、实名认证以及管理功能。 华为云的域名注册服务与新网合作,因此通过华为云注册的
ModelArts支持本地准备模型包,编写模型配置文件和模型推理代码,将准备好的模型包上传至对象存储服务OBS,从OBS导入模型创建为AI应用。 制作模型包,则需要符合一定的模型包规范。模型包里面必需包含“model”文件夹,“model”文件夹下面放置模型文件,模型配置文件,模型推理代码文件。
如何训练ai语言模型
模型列表分为表1 大语言模型列表和表2 多模态模型列表,详细如下。
模型系列 |
训练模型 |
训练场景 |
训练框架 |
支持版本 |
开源权重文件获取地址 |
---|---|---|---|---|---|
DeepSeek系列 |
DeepSeek-R1-671B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
|
DeepSeek-V3-671B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
https://huggingface.co/deepseek-ai/DeepSeek-V3-Base/tree/main |
|
DeepSeek-V2-Lite 16B |
预训练、Full微调 |
MindSpeed-LLM |
>=6.5.906版本 |
||
Qwen2系列 |
Qwen2-0.5B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
|
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Qwen2-1.5B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
Qwen2-7B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Qwen2-72B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Qwen2.5系列 |
Qwen2.5-0.5B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
|
预训练、微调 |
LlamaFactory |
||||
Qwen2.5-1.5B |
强化学习 |
MindSpeed-RL |
>=6.5.906版本 |
||
Qwen2.5-7B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
||||
强化学习 |
MindSpeed-RL |
>=6.5.906版本 |
|||
Qwen2.5-14B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Qwen2.5-32B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
强化学习 |
MindSpeed-RL |
>=6.5.906版本 |
|||
Qwen2.5-72B |
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
||
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
|||
Qwen3系列 |
Qwen3-0.6B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
|
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-1.7B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-4B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-8B |
强化学习 |
VeRL |
>=6.5.906版本 |
||
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
|||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-14B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-32B |
强化学习 |
VeRL |
>=6.5.906版本 |
||
预训练、微调 |
MindSpeed-LLM |
>=6.5.905版本 |
|||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-30B-A3B |
预训练、Full微调 |
MindSpeed-LLM |
>=6.5.905版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Qwen3-235b-A22B |
预训练、Full微调 |
MindSpeed-LLM |
>=6.5.905版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
|||
Llama系列 |
Llama3.1 -8B/70B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
https://huggingface.co/meta-llama/Meta-Llama-3.1-8B-Instruct https://huggingface.co/meta-llama/Meta-Llama-3.1-70B-Instruct |
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Llama3.2 -1B/3B |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
||
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
glm系列 |
glm-4-9b-chat |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
|
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|||
Mistral AI系列 |
Mixtral-8x7B-Instruct-v0.1 |
预训练、微调 |
MindSpeed-LLM |
>=6.5.902版本 |
模型系列 |
模型名称 |
训练场景 |
训练框架 |
支持版本 |
开源权重文件获取地址↵ |
---|---|---|---|---|---|
Qwen2 VL系列 |
Qwen2-VL-2B |
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
|
Qwen2-VL-7B |
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
||
Qwen2-VL-72B |
预训练、微调 |
LlamaFactory |
>=6.5.902版本 |
||
Qwen2.5 VL系列 |
Qwen2.5-VL-3B |
强化学习 |
VeRL |
>=6.5.906版本 |
|
Qwen2.5-VL-7B |
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
||
强化学习 |
VeRL |
>=6.5.906版本 |
|||
Qwen2.5-VL-32B |
预训练、微调 |
LlamaFactory |
>=6.5.906版本 |
||
强化学习 |
VeRL |
>=6.5.905版本 |
|||
Qwen2.5-VL-72B |
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
||
强化学习 |
VeRL |
>=6.5.906版本 |
|||
Internvl系列 |
Internvl2.5-8B/38B/78B |
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
https://huggingface.co/OpenGVLab/InternVL2_5-8B |
Gemma系列 |
Gemma3-27b |
预训练、微调 |
LlamaFactory |
>=6.5.905版本 |
下线模型
- Llama2/3:llama2-7b/13b/70b、llama3-8b/70b
- Qwen/Qwen1.5:qwen-7b/14b/72b、qwen1.5-7b/14b/32b/72b
- Yi:yi-6b、yi-32b
- BaiChuan2:baichuan2-7b、baichuan2-13b
- mistral-7b、falcon-11B、MiniCPM-2B、MiniCPM3-4B、glm3-6b
版本说明
相对于6.5.906版本,当前版本6.5.907有以下版本变更:
- MindSpeed_RL强化学习框架,支持Qwen2.5系列模型的GRPO算法训练。
- VeRL强化学习框架,支持大语言模型qwen3-8B、多模态模型qwen2.5_vl系列模型。
如何训练ai语言模型常见问题
更多常见问题 >>-
ModelArts模型训练旨在提升开发者模型训练的开发效率及训练性能。提供了可视化作业管理、资源管理、版本管理等功能,基于机器学习算法及强化学习的模型训练自动超参调优;预置和调优常用模型,简化模型开发和全流程训练管理。
-
在自然语言处理(NLP)领域中,使用语言模型预训练方法在多项NLP任务上都获得了不错的提升,广泛受到了各界的关注。本课程将简单介绍一下预训练的思想,几个代表性模型和它们之间的关系。
-
训练管理模块是ModelArts不可或缺的功能模块,用于创建训练作业、查看训练情况以及管理训练版本。模型训练是一个不断迭代和优化的过程。在训练模块的统一管理下,方便用户试验算法、数据和超参数的各种组合,便于追踪最佳的模型与输入配置,您可以通过不同版本间的评估指标比较,确定最佳训练作业。
-
模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。
-
本实验指导用户在短时间内,了解和熟悉使用ModelArts进行模型开发和训练的基本流程,并利用ModelArts训练管理服务完成一次训练任务。
-
本课程主要介绍如何让TensorFlow脚本运行在昇腾910处理器上,并进行精度、性能等方面的调优。通过对教材的解读,使学员能够结合教材+实践,迁移自己的训练脚本到昇腾平台上进行训练。
更多相关专题
增值电信业务经营许可证:B1.B2-20200593 | 域名注册服务机构许可:黔D3-20230001 | 代理域名注册服务机构:新网、西数