[快速入门]训练自己的大模型ai
盘古NLP大模型

盘古模型 盘古模型 盘古NLP模型 盘古NLP模型 优秀模型结构,完善工程化能力,最贴合行业落地NLP模型 超大参数规模,最贴合行业落地NLP模型 重磅发布盘古NLP 718B深度思考模型,多专家+稀疏比MOE新架构,昇腾亲和设计,高效训推 专家咨询 ModelArts

大模型混合云

政企AI平台架构及应用实践 湘钢人工智能模型价值评估报告 模型混合云十创新技术 了解详情 矿山产业集群模型运营最佳实践 了解详情 矿山大模型最佳实践白皮书 了解详情 华为云Stack 做智能时代更懂政企云 1对1咨询

盘古预测大模型

文档与学习成长 盘古模型 盘古模型 什么是盘古模型 盘古预测模型能力与规格 盘古模型快速入门 如何调用盘古模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样AI训练数据集 场景化AI案例,助力AI赋能千行百业

盘古大模型 panguLM

盘古模型 盘古模型 盘古模型 PanguLargeModels 盘古模型 PanguLargeModels 盘古模型是面向B端行业模型,包含L0中5类基础模型、L1行业大模型及L2场景模型三层架构 盘古模型是面向B端行业模型,包含L0中5类基础模型、L1行业大模型及L2场景模型三层架构

盘古多模态大模型

古多模态模型为基座,持续优化万兴天幕音视频模型2.0,构建其音视频垂类能力。 广汽集团 广汽借助华为云盘古多模态模型,打造业界首个支持点云生成模型,为其端到端仿真高效迭代提供强有力支撑。 文档与学习成长 盘古模型 盘古模型 什么是盘古模型 盘古多模态模型能力与规格

AI开发平台ModelArts-概览

支持在线推理、批量推理、边缘推理多形态部署 稳定安全算力底座,极快至简模型训练 稳定安全算力底座,极快至简模型训练 支持万节点计算集群管理 大规模分布式训练能力,加速模型研发 多应用场景全覆盖,AI智能平台助力业务成功 多应用场景全覆盖,AI智能平台助力业务成功 模型 实现智能回答、聊天机器人、自动摘要、机器翻译、文本分类等任务

ModelArts Studio大模型开发平台

盘古模型 盘古模型 模型开发平台ModelArts Studio 模型开发平台ModelArts Studio 支持百模千态模型工具链平台,构建规模化可复制行业大模型解决方案,深入行业解决行业难题 支持百模千态模型工具链平台,构建规模化可复制行业大模型解决方案,深入行业解决行业难题

工业智能体 - EI企业智能-华为云

学习资源 学习资源 AI开发基本流程介绍 自动学习简介 使用预置算法构建模型 使用自定义算法构建模型 查看更多 您感兴趣产品 您感兴趣产品 盘古NLP模型 最贴合行业落地NLP模型 盘古CV模型 赋能行业客户使用少量数据微调即可满足特定场景任务 盘古预测模型 基于Triplet

昇腾云服务

丰富的应用场景,满足海量访问诉求 模型 AIGC 自动驾驶 内容审核 模型 支持三方开源模型,加速客户模型业务上线 构建模型应用开发工具链,使能模型开箱即用 构建模型应用开发工具链,完善云上数据清洗|模型微调|部署|Prompt|评测|Agent,模型应用开发效率提升; 原生昇腾云

[相关产品]训练自己的大模型ai
AI大模型 算法备案

《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息  方便

AI大模型专业服务

湘江鲲鹏目前在人工智能模型领域拥有算力、数据、算法三关键要素经验积累,构建了模型三个方面的差异化竞争力,盘古模型AI专业服务覆盖从前期咨询、规划设计,到数据工程、模型训练,再到应用工程及模型运维完整流程。基于华为盘古提供AI专业服务包,致力于为企业提供一站式人工智能解决方案

大模型及AI应用配套服务

等,以及整体规划设计(需求、思路、方案、架构、落地周期、预算等)。3. 数据咨询、治理和梳理,数据采集(各业务系统中多种业务模型、网络等等),数据标注,关联关系定义,以及数据导入。4. 基于具体任务和对应数据分布,设计适合微调训练框架和方案;使用不同调参策略和技

天尊大模型AIGC场景解决方案

,满足企业在不同地点工作需求。5、我们保证了业务高质量数据供给。我们工作站拥有强大数据处理能力,可以提供高质量数据,帮助企业做出更好决策。总的来说,太杉天尊模型AIGC场景解决方案具备功能强大、安全可靠、易于使用特点,是政府得力助手,企业重要伙伴。1、数据私有化;

人工智能AI大模型技术研发定制服务

%+,能够为客户提供定制化解决方案。 公司集成了世界领先底层模型,具备打通跨模型和工具链平台能力,采用最新的人工智能技术和算法,能够基于业务场景,支持大规模数据处理和复杂模型训练,根据客户特定需求调整模型参数和功能,确保为客户提供高效、可靠技术服务,以满足业务目标。

博匠行业AI大模型专业服务

择和技术方案设计。提供NLP/CV等模型训练集数据标准设计指导。2. 规划设计:提供需求调研服务,基于盘古模型能力进行科学合理方案设计和模型选择。完成需求调研报告和方案设计报告输出及交付。提供L0盘古模型服务部署方案规划设计及部署实施服务。3. 数据工程:

盘古大模型专家服务

&撰写根据模型微调数据标注规范,通过配套工具进行数据标注。 八、数据转换与导入 完成数据格式转换,可进行跨网络环境数据导入。 九、调优方案设计 根据模型训练及调优工具和平台,输出模型调优方案。 十、模型训练实施1. 基于模型训练所需云服务,完成大模型训练及微调。2.

天尊大模型AIGC场景解决方案配套服务

、安全工作环境。1、我们特别注重数据私有化。我们采用最新数据加密技术,确保企业数据安全。每一个工作站都拥有独立存储空间,企业数据不会被未经授权第三方访问。2、我们提供了场景定制服务。我们工作站可以根据企业具体需求,进行个性化设计,以满足企业在不同场景下工作需求

序列猴子大模型

出门问问模型“序列猴子”是一款具备多模态生成能力语言模型模型以语言为核心能力体系涵盖“知识、对话、数学、逻辑、推理、规划”六个维度,能够同时支持文字生成、图片生成、3D内容生成、语言生成和语音识别等不同任务。出门问问模型“序列猴子”是一款具备多模态生成能力语言模型,模

[相似文章]训练自己的大模型ai
ModelArts模型训练_模型训练简介_如何训练模型

是唯一,只有运行时容器能访问到。因此训练作业“/cache”是安全。 如何查看训练作业资源占用情况? 在ModelArts管理控制台,选择“训练管理>训练作业”,进入训练作业列表页面。在训练作业列表中,单击目标作业名称,查看该作业详情。您可以在“资源占用情况”页签查看到如下指标信息。

华为云盘古大模型_华为云AI大模型_盘古人工智能

深厚行业积累,分层解耦架构,多样化部署模式 深厚行业积累,分层解耦架构,多样化部署模式 技术扎根 全栈技术创新,极致算力加速模型开发,打造世界AI另一极 全栈技术创新,极致算力加速模型开发,打造世界AI另一极 开放同飞 打造云原生应用平台AppArts,成立模型高质量数据联盟

ModelArts模型训练_创建训练作业_如何创建训练作业

') 训练作业“/cache”目录是否安全? ModelArts训练作业程序运行在容器中,容器挂载目录地址是唯一,只有运行时容器能访问到。因此训练作业“/cache”是安全训练环境中不同规格资源“/cache”目录大小 在创建训练作业时可以根据训练作业大小选择CPU、GPU或者Ascend资源。

ModelArts模型训练_超参搜索简介_超参搜索算法

器中,容器挂载目录地址是唯一,只有运行时容器能访问到。因此训练作业“/cache”是安全训练环境中不同规格资源“/cache”目录大小 在创建训练作业时可以根据训练作业大小选择CPU、GPU或者Ascend资源。 ModelArts会挂载硬盘至“/cache”目

AI训练加速存储_高性能数据存储_AI数据存储内存不足怎么办

从过去经典AI,到今天人人谈论模型,自动驾驶,我们看到AI模型参数及AI算力规模呈现出指数级爆发增长,对存储基础设施也带来全新挑战。 1、高吞吐数据访问挑战:随着企业使用 GPU/NPU 越来越多,底层存储 IO 已经跟不上计算能力,企业希望存储系统能提供高吞吐数据访问能力,充分发挥

ModelArts推理部署_模型_AI应用来源-华为云

像导入模型方式创建AI应用。 训练作业 ModelArts提供了模型训练功能,方便您查看训练情况并不断调整您模型参数。您还可以基于不同数据,选择不同规格资源池用于模型训练。除支持用户自己开发模型外,ModelArts还提供了从AI Gallery订阅算法,您可以不关注模型开发,直接使用AI

ModelArts推理部署_AI应用_部署服务-华为云

从容器镜像中选择:针对ModelArts目前不支持AI引擎,可以通过自定义镜像方式将编写模型镜像导入ModelArts,创建为AI应用,用于部署服务。 从模板中选择:相同功能模型配置信息重复率高,将相同功能配置整合成一个通用模板,通过使用该模板,可以方便快捷导入模型,创建为AI应用,而不用编写config

华为云ModelArts_ModelArts开发_AI全流程开发

ModelArts提供了模型训练功能,方便您查看训练情况并不断调整您模型参数。您还可以基于不同数据,选择不同规格资源池用于模型训练。除支持用户自己开发模型外,ModelArts还提供了从AI Gallery订阅算法,您可以不关注模型开发,直接使用AI Gallery算法,通过算法参数的调整,得到一个满意的模型。

人工智能学习入门

on语言中正则表达式进行文本信息匹配、多线程执行任务实现和Python中类魔法方法使用。 基于深度学习算法语音识别 利用新型的人工智能(深度学习)算法,结合清华大学开源语音数据集THCHS30进行语音识别的实战演练,让使用者在了解语音识别基本原理与实战同时,更好的了解人工智能的相关内容与应用。

训练自己的大模型ai

AI Gallery支持将模型进行微调,训练后得到更优模型。

场景描述

模型微调是深度学习中的一种重要技术,它是指在预训练好的模型基础上,通过调整部分参数,使其在特定任务上达到更好的性能。 在实际应用中,预训练模型是在大规模通用数据集上训练得到的,而在特定任务上,这些模型的参数可能并不都是最合适的,因此需要进行微调。

AI Gallery的模型微调,简单易用,用户只需要选择训练数据、创建微调任务,模型微调就会对数据进行训练,快速生成模型。

约束限制

  • 如果模型的“任务类型”“文本问答”“文本生成”,则支持模型微调。如果模型的“任务类型”是除“文本问答”“文本生成”之外的类型(即自定义模型),则模型文件必须满足自定义模型规范(训练)才支持模型自定义训练。
  • 当使用自定义 镜像 进行模型微调时,要确认镜像是否满足自定义镜像规范,否则无法成功完成自定义训练。

进入模型微调

  1. 登录AI Gallery
  2. 单击“模型”进入模型列表。
  3. 选择需要进行微调训练的模型,单击模型名称进入模型详情页。
  4. 在模型详情页,选择“训练 > 微调大师”进入微调工作流页面。

选择训练任务类型

选择模型微调的训练任务类型。

  • 当模型的“任务类型”“文本问答”“文本生成”时,“训练任务类型”默认和模型“任务类型”一致。“训练任务类型”支持修改,如果模型文件满足自定义模型规范(训练),则“训练任务类型”支持选择“自定义”
  • 当模型的“任务类型”是除“文本问答”“文本生成”之外的类型(即自定义模型)时,则“训练任务类型”默认为“自定义”,支持修改为“文本问答”“文本生成”
  • 当使用自定义镜像进行模型微调时,“训练任务类型”默认为“自定义”,且不支持修改。

准备数据

  • 本地上传数据需要确保数据已按照数据集要求完成编排。如果是自定义模型,此处的数据集要求即为模型文件“dataset_readme.md”里的内容。
  • 单个文件最大5GB,所有文件总大小不超过50G。
  1. 在微调工作流的“数据准备”环节选择数据集。
    • 从本地上传
      1. “从本地上传”处,单击“点击上传”,选择本地编排好的训练数据。
      2. 数据上传成功后,页面会有提示信息。

        此时AI Gallery会自动新建一个数据集,单击提示信息处的“查看”可以进入数据集详情页,也可以在“我的Gallery > 数据集 > 我创建的数据集”进入数据集详情页查看。

    • 从AI Gallery中选
      1. 单击“从AI Gallery中选择”。
      2. 在弹窗中,从“我创建的”或“我收藏的”数据集中选择所需要数据集。
      3. 选择完成后,单击“确定”。
  2. 数据准备完成后,单击“下一步”进入“作业设置”环节。

设置并启动作业

  1. 在微调工作流的“作业设置”环节配置训练作业参数。
    1. 算法配置,会显示已选模型的信息,基于已选模型选择微调方式。
      • “训练任务类型”“文本问答”“文本生成”时,AI Gallery支持的微调方式是LoRA。
      • “训练任务类型”“自定义”时,微调方式来自于模型文件“train_params.json”

      低秩适应(LoRA)是一种重参数化方法,旨在减少具有低秩表示的可训练参数的数量。权重矩阵被分解为经过训练和更新的低秩矩阵。所有预训练的模型参数保持冻结。训练后,低秩矩阵被添加回原始权重。这使得存储和训练LoRA模型更加高效,因为参数明显减少。

    2. 超参数设置,基于训练作业配置超参。超参指的是模型训练时原始数据集中实际字段和算法需要字段之间的映射关系。
      • “训练任务类型”“文本问答”“文本生成”时,则常见的超参说明请参见表1
      • “训练任务类型”“自定义”时,超参信息来自于模型文件“train_params.json” 。如果不使用可选超参,建议单击右侧的删除按钮,删除参数。
      表1 常见超参说明

      参数名称

      参数类型

      说明

      data_url

      String

      数据 OBS 存储路径。

      train_url

      String

      微调产物输出OBS路径。

      train_data_file

      String

      训练数据文件名。

      test_data_file

      String

      测试数据文件名。

      prompt_field

      String

      数据prompt列名。

      response_field

      String

      数据response列名。

      history_field

      String

      数据history列名。

      prefix

      String

      数据格式化时使用的前缀。

      instruction_template

      String

      数据格式化时使用的指令模板。

      response_template

      String

      数据格式化时使用的回答模板。

      lora_alpha

      int

      Lora scaling的alpha参数。

      lora_dropout

      float

      Lora dropout概率。

      lora_rank

      int

      Lora attention维度。

      per_device_train_batch_size

      int

      用于训练的每个GPU/TPU core/CPU的批处理大小。

      gradient_accumulation_steps

      int

      梯度累计步数。

      max_steps

      int

      训练最大步数,如果数据耗尽,训练将会在最大步数前停止。

      save_steps

      int

      checkpoint保存步数。

      logging_steps

      int

      日志输出步数。

      learning_rate

      float

      初始学习率。

      max_grad_norm

      float

      梯度裁剪最大范数。

      warmup_ratio

      float

      热身步数比。

      max_seq_length

      int

      数据最大序列长度。

      finetuned_model

      String

      前序微调产物OBS路径。

      bits

      int

      模型量化bit数,如4、8。

      max_eval_samples

      int

      最大测试数据数。

    3. 计算规格选择,按需选择计算规格。单击“选择”,在弹窗中选择资源规格,单击“确定”。
      • “所在区”选择计算规格所在的区域。默认显示全部区域的计算规格。
      • 选择计算规格不可用的资源会置灰。右侧“配置信息”区域会显示计算规格的详细数据,AI Gallery会基于资产和资源情况分析该任务是否支持设置“商品数量”,用户可以基于业务需要选择任务所需的资源卡数。

      如果选择付费资源,则请确认账号未欠费,且余额高于所选计算规格的收费标准,否则可能会导致AI Gallery工具链服务异常中断。AI Gallery的计算规格的计费说明请参见计算规格说明

  2. 作业参数配置完成后,单击“启动作业”。
  3. “订单信息确认”页面,确认服务信息和费用,单击“确定”提交模型训练任务。

    单击“返回模型训练”跳转到微调大师页面,可以查看训练作业状态。当“状态”“训练完成”时,表示微调任务完成。

    • 单击操作列的“查看模型”跳转到微调获得的新模型的详情页面。
    • 单击操作列的“任务详情”可以在弹窗中查看“训练信息”“训练日志”“指标效果”
    • 单击操作列的“更多 > 删除任务”,可以删除微调任务,但是微调获得的新模型不会被删除。

查看训练效果

启动模型微调任务后,在微调大师列表单击操作列的“任务详情”,在弹窗中选择“指标效果”页签,可以查看训练效果。

表2 训练效果的指标介绍

指标名称

指标说明

NPU/GPU利用率

在训练过程中,机器的NPU/GPU占用情况(横坐标时间,纵坐标占用率)。

显存利用率

在训练过程中,机器的显存占用情况(横坐标时间,纵坐标占用率)。

吞吐

在训练过程中,每卡处理tokens数量(tokens/s/p)。每种框架计算方式不一致,例如,ATB可通过“samples per second*seq_lenth/总卡数”得到tokens/s/p,输出给throughout字段,seq_lenth取值在训练脚本中可以查看。

单机8卡吞吐量一般为1650tokens/s/p,双机16卡吞吐量一般为1625tokens/s/p。

说明:

自定义训练或自定义镜像训练,需要提前在训练启动脚本(例如“train.py”)中定义好迭代次数、LOSS和吞吐数据的存放位置,以及存放格式(必须是“迭代次数|loss|吞吐”),才能在此处正常查看吞吐和“训练LOSS”曲线。

训练LOSS

训练阶段的LOSS变化,模型在日志里用LOSS关键词记录数据,按照训练迭代周期记录LOSS值。

微调产物说明

模型微调完成后,会得到一个新模型,即微调产物。

在微调大师页面,单击操作列的“查看模型”跳转到微调获得的新模型的详情页面。选择“模型文件”页签可以查看微调产物。各文件说明请参见表3

图1 微调产物示例
表3 微调产物说明

文件名

文件说明

gallery_train文件夹

自定义模型的模型训练文件,仅当使用自定义模型微调时才会有这个微调产物,内容和预训练模型里的gallery_train文件一致。

training_logs/user_params.json

微调配置参数信息,AI Gallery会自动将微调设置的参数信息记录在此文件下。

“README.md”

模型的基础信息。内容和预训练模型里“模型文件”页签的“README.md”一致。

其他文件

当使用自定义模型微调时,可能还会有一些其他微调产物,这是由自定义模型的训练脚本文件train.py决定的,如果训练脚本定义了归档其他训练产物,就会在此处呈现。

训练自己的大模型ai常见问题

更多常见问题 >>
  • 在自然语言处理(NLP)领域中,使用语言模型预训练方法在多项NLP任务上都获得了不错的提升,广泛受到了各界的关注。本课程将简单介绍一下预训练的思想,几个代表性模型和它们之间的关系。

  • ModelArts模型训练旨在提升开发者模型训练的开发效率及训练性能。提供了可视化作业管理、资源管理、版本管理等功能,基于机器学习算法及强化学习的模型训练自动超参调优;预置和调优常用模型,简化模型开发和全流程训练管理。

  • 盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

  • 训练管理模块是ModelArts不可或缺的功能模块,用于创建训练作业、查看训练情况以及管理训练版本。模型训练是一个不断迭代和优化的过程。在训练模块的统一管理下,方便用户试验算法、数据和超参数的各种组合,便于追踪最佳的模型与输入配置,您可以通过不同版本间的评估指标比较,确定最佳训练作业。

  • 模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。

  • 本实验指导用户在短时间内,了解和熟悉使用ModelArts进行模型开发和训练的基本流程,并利用ModelArts训练管理服务完成一次训练任务。