华为云用户手册

  • 前提条件 使用预置服务:在“在线推理”页面的“预置服务”页签,已领取免费Token,且额度未使用完毕,或者已开通商用服务(付费状态为“开通”)。具体操作,请参见 免费体验 MaaS预置服务和在ModelArts Studio(MaaS)预置服务中开通商用服务。 使用我的服务:在“在线推理”页面的“我的服务”页签,服务列表存在运行中、更新中或升级中的模型服务。具体操作,请参见使用ModelArts Studio(MaaS)部署模型服务。
  • 步骤一:获取API Key 在调用MaaS部署的模型服务时,需要填写API Key用于接口的鉴权认证。最多可创建30个密钥。每个密钥仅在创建时显示一次,请确保妥善保存。如果密钥丢失,无法找回,需要重新创建API Key以获取新的访问密钥。更多信息,请参见在ModelArts Studio(MaaS)管理API Key。 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,单击“API Key管理”。 在“API Key管理”页面,单击“创建API Key”,填写标签和描述信息后,单击“确定”。 标签和描述信息在创建完成后,不支持修改。 表1 创建API Key参数说明 参数 说明 标签 自定义API Key的标签。标签具有唯一性,不可重复。仅支持大小写英文字母、数字、下划线、中划线,长度范围为1~100个字符。 描述 自定义API Key的描述,长度范围为1~100个字符。 在“您的密钥”对话框,复制密钥并保存至安全位置。 保存完毕后,单击“关闭”。 单击“关闭”后将无法再次查看密钥。
  • 内容审核 说明 流式请求 如果触发内容审核,则会返回错误:错误码403。您可以通过错误码ModelArts.4910来判断。返回内容如下: { "error_code": "ModelArts.4910", "error_msg": "May contain sensitive information, please try again." } 图1 报错示例 如果未触发内容审核,则使用postman调用返回参考如下,返回码200。 图2 正常返回示例 如果输出有敏感信息,则会在输出流后面拼接如下数据: data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":"这是流式响应的开始。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"delta":{"content":" 继续输出结果。"},"index":0}] data: {"id":"chatcmpl-*********************","object":"chat.completion","created":1678067605,"model":"******","choices":[{"finish_reason":"content_filter","index":0}]} data: [DONE] 触发内容审核之后,"finish_reason"是"content_filter";正常的流式停止是 "finish_reason":"stop"。 非流式请求 如果触发内容审核,则会返回错误:错误码403。您可以通过错误码ModelArts.4910来判断。 返回内容如下: { "error_code": "ModelArts.4910", "error_msg": "May contain sensitive information, please try again." } 图3 报错示例 如果未触发,则正常返回,示例如下: 图4 正常返回示例
  • 接口调用说明 假设API地址为https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/{endpoint} ,其中{endpoint}仅支持如下接口: /v1/chat/completions /v1/models /v1/completions 注意: /v1/models使用GET方法不需要请求体,而/v1/chat/completions与/v1/completions均需要POST请求方式和对应的JSON请求体。 通用请求头为Authorization: Bearer YOUR_API_KEY,对于POST请求,还需包含Content-Type: application/json。 表5 接口说明 类型/接口 /v1/models /v1/chat/completions /v1/completions 请求方法 GET POST POST 用途 获取当前支持的模型列表。 用于聊天对话型生成调用。 面向传统文本补全,即根据给定的prompt生成相应文本。 请求体说明 无需请求体,仅需通过请求头传入认证信息。 model:使用的模型标识,例如 "GLM-4-9B"。 messages:对话消息数组,每条消息需要包含role(如 "user" 或 "assistant")和content。 其他可选参数:例如temperature(生成温度)、max_tokens等,用于控制生成结果的多样性和长度。 model:使用的模型标识,例如 "GLM-4-9B"。 prompt:用户的文本提示。 max_tokens:生成文本的最大长度。 temperature:控制生成随机性,通常与/v1/chat/completions参数类似。 请求示例 GET https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/models HTTP/1.1 Authorization: Bearer YOUR_API_KEY POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/chat/completions HTTP/1.1 Content-Type: application/json Authorization: Bearer YOUR_API_KEY { "model": "******", "messages": [ {"role": "user", "content": "Hello, how are you?"} ], "temperature": 0.7 } POST https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06*****/v1/completions HTTP/1.1 Content-Type: application/json Authorization: Bearer YOUR_API_KEY { "model": "******", "prompt": "Tell me a story about a brave knight.", "max_tokens": 150, "temperature": 0.7 } 响应示例 { "data": [ { "id": "******", "description": "最新一代大模型" }, { "id": "******", "description": "性价比较高的替代方案" } ] } { "id": "******", "object": "chat.completion", "choices": [ { "index": 0, "message": {"role": "assistant", "content": "I'm doing well, thank you! How can I help you today?"} } ], "usage": { "prompt_tokens": 15, "completion_tokens": 25, "total_tokens": 40 } } { "id": "******", "object": "text_completion", "choices": [ { "text": "Once upon a time, a brave knight embarked on a perilous journey...", "index": 0 } ], "usage": { "prompt_tokens": 10, "completion_tokens": 90, "total_tokens": 100 } }
  • 定时启停部署服务 华东二和华北-乌兰察布一支持通过FunctionGraph控制台实现定时启停,西南-贵阳一支持调用接口实现启停,请您按需选择以下步骤。 华东二和华北-乌兰察布一: 华为云 函数工作流 FunctionGraph提供定时触发器,可以帮助用户实现ModelArts Studio定时批量启停的计划,适用于需要通过停止不使用的实例并在需要使用实例时自动启动实例,来帮助降低运营成本的场景。更多信息,请参见定时开关机解决方案概述和资源和成本规划。 创建rf_admin_trust委托和 IAM Agency Management FullAcces策略,为rf_admin_trust委托添加IAM Agency Management FullAcces策略。具体操作,请参见准备工作。 获取ModelArts Studio模型服务ID。 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“在线推理”。 在“在线推理”页面,单击“我的服务”页签,然后单击目标服务名称。 在“服务详情”页面,获取服务ID。 图1 获取服务ID 登录华为云解决方案实践,在文本框搜索定时开关机,在“定时开关机”卡片,单击“一键部署”,跳转至“立即创建资源栈”页面,在顶部导航栏选择目标区域,进行定时开关机相关配置。具体操作,请参见快速部署。 关于如何查看函数、编辑环境变量、查看执行日志的具体操作,请参见开始使用。 图2 一键部署定时开关机 消息通知 服务 SMN 会自动发送受邀订阅主题链接的短信,您可以单击访问链接,使用浏览器打开即可确认订阅。 (可选)如果不需要定时启停功能,可以进行卸载。具体操作,请参见快速卸载。 西南-贵阳一: MaaS支持调用接口实现启停功能,适用于需要通过停止不使用的实例并在需要使用实例时自动启动实例,来帮助降低运营成本的场景。您可以参考以下示例代码,按需修改相关参数,创建自己的启停任务。 通过IAM获取token和project_id。 关于如何获取token,请参见获取IAM用户Token(使用密码)。 关于如何获取project_id,请参见获取账号、IAM用户、项目、用户组、区域、委托的名称和ID。 获取ModelArts Studio模型服务ID(maas_server_id)。 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“在线推理”。 在“在线推理”页面,单击“我的服务”页签,然后单击目标服务名称。 在“服务详情”页面,获取服务ID。 图3 获取服务ID 使用以下代码示例,调用get_server和post_server方法。 get_server方法:用于确认ModelArts服务状态。通过调用该方法,可以获取指定服务的当前状态。 post_server方法:用于控制ModelArts服务状态。通过指定操作类型(action_type),可以对服务进行启动或停止操作。action_type参数说明如下: restart:重启服务。 terminate:停止服务。 代码示例如下,请您根据实际情况进行修改。{token}、{project_id}、{maas_server_id}请替换为前两个步骤获取的值。 import http.client import json import traceback def get_server(project_id, maas_server_id, token): //用于确认ModelArts服务状态。通过调用该方法,可以获取指定服务的当前状态。 try: conn = http.client.HTTPSConnection(f"modelarts.cn-southwest-2.myhuaweicloud.com") headers = {'X-Auth-Token': f"{token}"} conn.request("GET", f"/v1/{project_id}/maas/services/{maas_server_id}", None, headers) res = conn.getresponse() status = res.read().decode("utf-8") print("status", status) except Exception: print("Failed to create service," f"exception: {traceback.format_exc()}") def post_server(project_id, maas_server_id, token, action_type): //用于控制ModelArts服务状态。通过指定操作类型(action_type),可以对服务进行启动或停止操作。 try: conn = http.client.HTTPSConnection("modelarts.cn-southwest-2.myhuaweicloud.com") headers = {'X-Auth-Token': f"{token}", 'Content-Type': 'application/json'} body = json.dumps({ "action_type": action_type //restart:重启服务;terminate:停止服务。 }) conn.request("POST", f"/v1/{project_id}/maas/services/{maas_server_id}", body, headers) res = conn.getresponse() status = res.read().decode("utf-8") print("status", status) except Exception: print("Failed to create service," f"exception: {traceback.format_exc()}") 在get_server方法中,通过GET请求获取服务状态。状态信息存储在status变量中,并通过print("服务状态:", status)输出。服务状态反映了服务的当前运行情况,以下是所有可能的状态: Creating:创建中 Initing:初始化中 Pending:等待中 Waiting:等待中 Deploying:部署中 Running:运行中 Concerning:关注中 Failed:失败 Completed:已完成 Terminating:终止中 Terminated:已终止 Deleting:删除中 Deleted:已删除 Unknown:未知 Abnormal:异常 Restarting:重启中 Upgrade:升级 Scale:扩缩容
  • 部署模型服务 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“在线推理”进入服务列表。 在“在线推理”页面,单击“我的服务”页签,在右上角单击“部署模型服务”进入部署页面,完成创建配置。 表2 部署模型服务参数说明 参数 说明 服务设置 服务名称 自定义部署模型服务的名称。 支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、中划线、下划线的名称。 描述 自定义部署模型服务的简介。支持256字符。 模型设置 部署模型 单击“选择模型”,选择“模型广场”或“我的模型”下面的模型。 资源设置 资源池类型 资源池分为公共资源池与专属资源池。 公共资源池供所有租户共享使用。 专属资源池需单独创建,不与其他租户共享。 实例规格 选择实例规格,规格中描述了服务器类型、型号等信息。 说明: 公共资源池暂未完全公开,如需申请使用,请联系与您对接的销售人员或拨打4000-955-988获得支持,您也可以在线提交售前咨询。 实例数 设置服务器个数。 更多选项 内容审核 选择是否打开内容审核,默认启用。 开关打开(默认打开),内容审核可以阻止在线推理中的输入输出中出现不合规的内容,但可能会对接口性能产生较大影响。 开关关闭,停用内容审核服务,将不会审核在线推理中的输入输出,模型服务可能会有违规风险,请谨慎关闭。 关闭“内容审核”开关,需要在弹窗中确认是否停用内容审核服务,勾选后,单击“确定”关闭。 事件通知 选择是否打开“事件通知”开关。 开关关闭(默认关闭):表示不启用消息通知服务。 开关打开:表示订阅消息通知服务,当任务发生特定事件(如任务状态变化或疑似卡死)时会发送通知。此时必须配置“主题名”和“事件”。 “主题名”:事件通知的主题名称。单击“创建主题”,前往消息通知服务中创建主题。 “事件”:选择要订阅的事件类型。例如“运行中”、“已终止”、“运行失败”等。 说明: 需要为消息通知服务中创建的主题添加订阅,当订阅状态为“已确认”后,方可收到事件通知。订阅主题的详细操作请参见添加订阅。 使用消息通知服务会产生相关服务费用,详细信息请参见计费说明。 自动停止 当使用付费资源时,可以选择是否打开“自动停止”开关。 开关关闭(默认关闭):表示服务将一直运行。 开关打开:表示启用自动停止功能,此时必须配置自动停止时间,支持设置为“1小时”、“2小时”、“4小时”、6小时或“自定义”。启用该参数并设置时间后,运行时长到期后将会自动终止服务,准备排队等状态不扣除运行时长。 参数配置完成后,单击“提交”。 “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预估费用信息,然后单击“确定”,创建部署任务。模型部署会基于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。 在“我的服务”列表中,当模型部署服务的“状态”变成“运行中”时,表示模型部署完成。 模型部署完成后,可以进行在线体验或API调用。具体操作,请参见在ModelArts Studio(MaaS)体验模型服务或调用ModelArts Studio(MaaS)部署的模型服务。 在“我的服务”列表中,单击“调用统计”列的图标,可以查看目标服务的调用次数、Tokens数、首Token时延等指标信息。详细信息,请参见在ModelArts Studio(MaaS)查看调用数据和监控指标。
  • 停止/启动部署服务 只有服务处在排队中、启动中、运行中、部署中、告警状态,才可执行停止操作;只有服务处在部署失败、已停止状态,才可执行启动操作。 停止部署服务 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“在线推理”。 在“在线推理”页面,单击“我的服务”页签,在目标服务右侧,单击操作列的“停止”。 在“停止服务”对话框,单击“确定”。 启动部署服务 在“在线推理”页面,单击“我的服务”页签,在目标服务右侧,单击操作列的“启动”。 在“启动服务”对话框,仔细阅读提示信息,单击“确定”。 服务状态为运行中时会产生费用。
  • 查看部署服务信息 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“在线推理”进入服务列表,单击“我的服务”页签。 单击服务名称,进入部署模型服务详情页面,可以查看服务信息。 “详情”:可以查看服务的基本信息,包括服务、模型、资源等设置信息。 “资源监控”:可以查看服务的算力利用率、显存利用率和资源监控信息。 “算力利用率”表示每分钟NPU的平均使用率,当请求率较低时,使用率会显示为0。 “事件”:可以查看服务的事件信息。事件保存周期为1个月,1个月后自动清理数据。 “日志”:可以搜索和查看服务日志。
  • 约束限制 部署模型服务时,ModelArts Studio大模型即服务平台预置了推理的最大输入输出长度,详情如下表所示。 表1 模型默认最大输入输出长度 模型 默认最大输入输出长度 Qwen-14B 2048 Qwen2.5-72B-8K DeepSeek-R1-Distill-Llama-70B-8K DeepSeek-R1-Distill-Qwen-14B-8K DeepSeek-R1-Distill-Qwen-32B-8K 8192 QwQ-32B-16K 16384 Qwen2-72B-32K Qwen2.5-7B-32K Qwen2.5-72B-32K DeepSeek-R1-Distill-Qwen-32B-32K 32768 其他模型 4096 贵阳一区域:最新的版本因为支持新驱动,目前仅支持使用专属资源池(Snt9b2)。 乌兰一区域:支持使用公共资源池(Snt9b3)。 如果支持公共资源池,但是没开白名单,“资源池类型”选择“公共资源池”时,下方会出现提示:公共资源池暂未完全公开,如需申请使用,请联系与您对接的销售人员或拨打4000-955-988获得支持,您也可以在线提交售前咨询。 如果不支持公共资源池,“公共资源池”按钮会置灰,鼠标悬停时,会提示:该模型版本暂不支持公共资源池部署;如果专属资源池不匹配,勾选按钮会置灰,鼠标悬停时,会出现相关提示,请按照提示进行相关操作。 使用历史模型在专属资源池部署时,驱动版本需为23.0.5或23.0.6;使用DeepSeek模型新版本时,驱动版本需为24.0.1。如果驱动版本不正确会导致部署任务创建失败。
  • 模型压缩时长估算 表4 模型压缩时长估算 模型名称 SmoothQuant-W8A8 AWQ-W4A16 Llama2-13B 5~10分钟 60分钟 Llama2-70B 20~30分钟 3小时 Llama2-7B 5~10分钟 40分钟 Llama3-70B 20~30分钟 3小时 Llama3-8B 5~10分钟 40分钟 Qwen1.5-14B 5~10分钟 60分钟 Qwen1.5-72B 20~30分钟 3小时 Qwen1.5-7B 5~10分钟 40分钟 Qwen2-72B 20~30分钟 - Qwen2-72B-1K 20~30分钟 - Qwen2.5-72B 40分钟 - Qwen2.5-32B 20~30分钟 2小时
  • 创建压缩作业 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“模型压缩”进入作业列表。 单击“创建压缩作业”进入创建页面,完成创建配置。 表3 创建压缩作业参数说明 参数 说明 作业设置 作业名称 自定义压缩作业名称。支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、中划线、下划线的名称。 描述 自定义压缩任务简介。支持1000字符。 模型设置 来源模型 单击“选择模型”,选择“模型广场”或“我的模型”下面的模型。 压缩策略 支持SmoothQuant-W8A8和AWQ-W4A16两种压缩策略。 SmoothQuant-W8A8:SmoothQuant是一种同时确保准确率与推理高效的训练后量化(PTQ)方法,W8A8可实现8-bit权重、8-bit激活(W8A8)量化,引入平滑因子来平滑激活异常值,将量化难度从较难量化的激活转移到容易量化的权重上。 AWQ-W4A16:AWQ是一种大模型低比特权重的训练后量化(PTQ)方法,W4A16可实现4-bit权重、16-bit激活(W4A16)量化,通过激活值来选择并放大显著权重,以提高推理效率。 压缩后模型名称 设置压缩后产生的新模型的名称。支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、下划线(_)、中划线(-)和英文半角句号(.)。 参数设置 平滑系数/Migration Strength 设置SmoothQuant量化的迁移系数,仅“压缩策略”选择“SmoothQuant-W8A8”时才需要配置。建议使用默认值。 取值范围:0~1 默认值:0.5 压缩后模型权重保存路径 选择压缩后模型权重文件存放的OBS路径。 资源设置 资源池类型 资源池分为公共资源池与专属资源池。 公共资源池供所有租户共享使用。 专属资源池需单独创建,不与其他租户共享。 实例规格 选择实例规格,规格中描述了服务器类型、型号等信息。 更多选项 永久保存日志 选择是否打开“永久保存日志”开关。 开关关闭(默认关闭):表示不永久保存日志,则任务日志会在30天后会被清理。可以在任务详情页下载全部日志至本地。 开关打开:表示永久保存日志,此时必须配置“日志路径”,系统会将任务日志永久保存至指定的OBS路径。 事件通知 选择是否打开“事件通知”开关。 开关关闭(默认关闭):表示不启用消息通知服务。 开关打开:表示订阅消息通知服务,当任务发生特定事件(如任务状态变化或疑似卡死)时会发送通知。此时必须配置“主题名”和“事件”。 “主题名”:事件通知的主题名称。单击“创建主题”,前往消息通知服务中创建主题。 “事件”:选择要订阅的事件类型。例如“创建中”、“已完成”、“运行失败”等。 说明: 需要为消息通知服务中创建的主题添加订阅,当订阅状态为“已确认”后,方可收到事件通知。订阅主题的详细操作请参见添加订阅。 使用消息通知服务会产生相关服务费用,详细信息请参见计费说明。 自动停止 当使用付费资源时,可以选择是否打开“自动停止”开关。 开关关闭(默认关闭):表示任务将一直运行直至完成。 开关打开:表示启用自动停止功能,此时必须配置自动停止时间,支持设置为“1小时”、“2小时”、“4小时”、6小时或“自定义”。启用该参数并设置时间后,运行时长到期后将会自动终止任务,准备排队等状态不扣除运行时长。 参数配置完成后,单击“提交”。 “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预估压缩时长和费用信息,然后单击“确定”,创建压缩任务。模型压缩运行时会产生费用,压缩时长与选取模型及压缩方式有关。该预估费用不包含OBS存储费用。预估费用基于目录价和预估时长计算,估算存在波动性,最终以实际发生为准。 在“模型压缩”列表中,当压缩作业的“状态”变成“已完成”时,表示模型压缩完成。
  • 场景描述 模型压缩是指将高比特浮点数映射到低比特量化空间,从而减少显存占用的资源,降低推理服务时延,提高推理服务吞吐量,并同时减少模型的精度损失。模型压缩适用于追求更高的推理服务性能、低成本部署以及可接受一定精度损失的场景。 ModelArts Studio大模型即服务平台当前支持SmoothQuant-W8A8和AWQ-W4A16两种压缩策略。 表1 压缩策略的适用场景 压缩策略 场景 SmoothQuant-W8A8 长序列的场景 大并发量的场景 AWQ-W4A16 小并发量的低时延场景 更少推理卡数部署的场景
  • 约束限制 表2列举了支持模型压缩的模型,不在表格里的模型不支持使用MaaS压缩模型。 表2 支持模型压缩的模型 模型名称 SmoothQuant-W8A8 AWQ-W4A16 Llama2-13B √ √ Llama2-70B √ √ Llama2-7B √ √ Llama3-70B √ √ Llama3-8B √ √ Qwen1.5-14B √ √ Qwen1.5-72B √ √ Qwen1.5-7B √ √ Qwen2-72B √ x Qwen2-72B-1K √ x Qwen2.5-72B √ x Qwen2.5-32B √ √
  • 模型调优时长估算 调优时长表示调优作业的“状态”处于“运行中”的耗时。由于训练吞吐有上下限,因此计算出的调优时长是个区间。 计算公式:调优时长 = 经验系数 x Iterations ÷(卡数 x 实例数 x 吞吐)+ 前后处理时间 单位:小时 表5 参数说明 参数 说明 经验系数 经验系数与模型训练迭代过程中处理的序列长度和批次大小有关。 Qwen2-72B-1K模型的经验系数 = 512 x 1024 ÷ 3600 ≈ 146 其他模型的经验系数 = 32 x 4096 ÷ 3600 ≈ 36 Iterations 创建调优作业时计算得出的“迭代步数/Iterations”超参值。 卡数 和创建调优作业时选择的“规格”相关,例如,“规格”选择的是“Ascend: 2*ascend-snt9b2(64GB) ”,*号前面的数字是2,则卡数就是2。 实例数 创建调优作业时设置的“节点个数”。 吞吐 吞吐表示每秒每卡处理的Tokens数量。 单位:tokens/s/p 前后处理时间 调优时长还包括训练前的数据预处理、训练后格式转换等调优之外的耗时,统称为前后处理时间。 调优作业的前后处理时间和模型参数量相关,不同参数量的时间估值如下: 72B : 1.35小时 32B:0.58小时 14B:0.25小时 7B:0.15小时
  • 停止/继续调优作业 只有作业“状态”处于“运行中”、“等待中”、“告警”和“创建中”,才支持停止调优作业。 停止调优作业 在ModelArts Studio左侧导航栏中,选择“模型调优”进入作业列表。 选择调优作业,单击操作列的“停止”,在弹窗中单击“确定”,暂停调优作业,作业“状态”变成“已停止”。 继续调优作业 当调优作业处于“已停止”状态时,单击右侧操作列的“继续”。 在“继续作业”对话框,仔细阅读提示信息,单击“确定”,即可从最新的Checkpoint启动作业,作业“状态”变成“启动中”。 重新启动的作业将基于调优作业运行时长计费。
  • 查看调优作业详情 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,选择“模型调优”进入作业列表。 单击作业名称,进入调优作业详情页面,可以查看作业详情和日志。 “详情”:可以查看作业的基本信息,包括作业、模型、数据等设置信息。 “日志”:可以搜索、查看和下载作业日志。 查看loss:当作业进入训练流程之后,会按照Step进行loss打印,因此在日志中搜索关键字段“lm loss”即可查看loss。 获取训练吞吐数据:在打印的loss日志中搜索关键字段“elapsed time per iteration”获取每步迭代耗时,总的Token数可以用日志中的“global batch size”和“SEQ_LEN”相乘获得,训练的每卡每秒的吞吐=总Token数÷每步迭代耗时÷总卡数。
  • 支持的数据集格式 创建模型调优作业时,支持选择MOSS、Alpaca和ShareGPT这三种数据集格式。 MOSS:用于存储和交换机器学习模型数据的数据集格式,文件类型为jsonl。 Alpaca:用于训练语言模型的数据集格式,文件类型为jsonl。 ShareGPT:用于分享GPT模型对话结果的数据集格式,文件类型为jsonl。 请按数据集格式要求准备数据,否则会导致调优作业失败。 对于csv、xlsx文件,平台会将其转为Alpaca格式或MOSS格式,具体请参见表2。 表2 模型与数据集格式说明 模型 调优类型 数据集格式(jsonl) 数据集格式(xlsx和csv) Qwen2.5-72B及其余模型系列(权重格式为Megatron的模型,具体请参见表6) 全参微调、LoRA微调 MOSS、Alpaca、ShareGPT MOSS Qwen2.5-7B、Qwen2.5-14B、Qwen2.5-32B、Qwen2.5-72B-1K 全参微调、LoRA微调 Alpaca、ShareGPT Alpaca Qwen2.5-14B 增量预训练 Alpaca 不支持 MOSS数据集格式:jsonl格式 MOSS数据集格式仅支持微调。 jsonl的一行数据就是数据集中的一条样本,建议总的数据样本不少于2000条。数据集示例如下,单轮对话也可以复用此格式。您可以单击下载,获取示例数据集“simple_moss.jsonl”,该数据集可以用于文本生成类型的模型调优。 {"conversation_id": 1, "chat": {"turn_1": {"Human":"text","MOSS":"text"},"turn_2": {"Human":"text","MOSS":"text"}}} "conversation_id":样本编号。 "chat":多轮对话的内容。 "turn_n":表示是第n次对话,每次对话都有输入(对应Human角色)和输出(对应MOSS角色)。其中Human和MOSS仅用于角色区分,模型训练的内容只有text指代的文本。 Alpaca数据集格式 微调:jsonl格式 { "instruction": "计算这些物品的数量之和。 ", "input": "输入:汽车 - 3,衣服 - 100,书 - 20。", "output": "汽车、衣服和书的数量之和为 3 + 100 + 20 = 123。" } 增量预训练: [ {"text": "document"}, {"text": "document"} ] ShareGPT数据集格式 ShareGPT数据集格式仅支持微调。 ShareGPT格式支持更多的角色种类,例如human、gpt、observation、function等。它们构成一个对象列表呈现在conversations列中。 注意:其中human和observation必须出现在奇数位置,gpt和function必须出现在偶数位置。 示例如下: [ { "conversations": [ { "from": "human", "value": "human instruction" }, { "from": "function_call", "value": "tool arguments" }, { "from": "observation", "value": "tool result" }, { "from": "gpt", "value": "model response" } ], "system": "system prompt (optional)", "tools": "tool description (optional)" } ] csv、xlsx csv和xlsx格式数据集仅支持微调。 表格里的一行数据就是一条样本。表格中仅有3个字段:conversation_id、human和assistant。 conversation_id:对话ID,可以重复,但必须是正整数。如果有多组Human-assiant对话使用同一个ID,则会按照文件中的顺序,将这几组对话编排成一个多轮对话。 human:对话输入,内容不能为空。 assistant:对话输出,内容不能为空。 表3 表格示例 conversation_id human assistant 1 text text
  • 约束限制 表1列举了支持模型调优的模型,不在表格里的模型不支持使用MaaS调优模型。 表1 支持模型微调的模型 模型名称 全参微调 LoRA微调 增量预训练 Baichuan2-13B √ √ x ChatGLM3-6B √ √ x GLM-4-9B √ √ x Llama2-13B √ √ x Llama2-70B √ √ x Llama2-7B √ √ x Llama3-70B √ √ x Llama3-8B √ √ x Qwen-14B √ √ x Qwen-72B √ √ x Qwen-7B √ √ x Qwen1.5-14B √ √ x Qwen1.5-32B √ √ x Qwen1.5-72B √ √ x Qwen1.5-7B √ √ x Qwen2-72B √ √ x Qwen2-72B-1K √ √ x Qwen2-7B √ √ x Qwen2-1.5B √ √ x Qwen2-0.5B √ √ x Qwen2.5-72B √ √ x Qwen2.5-32B √ √ x Qwen2.5-14B √ √ √ Qwen2.5-7B √ √ x Qwen2.5-72B-1K √ √ x Qwen2-VL-7B √ √ x Qwen2.5-72B-8K √ √ x
  • 新增模型版本 为了提升模型的可追溯性和优化效率,MaaS提供了模型版本管理功能。通过此功能,您能够创建模型的新版本。 一个模型最多支持创建10个版本。 在ModelArts Studio控制台左侧导航栏,单击“我的模型”进入模型列表。 单击目标模型名称,进入模型详情页面。 在“我的版本”区域,单击“新增版本”。 在“新增版本”页面,配置模型新版本的参数。 表3 新增模型版本参数说明 参数 说明 新版本号 系统自动编号,不可修改。 版本描述 自定义模型版本简介。支持100字符。 选择基础模型版本 选择基础模型的版本。 选择权重路径 选择存放模型权重文件的OBS路径,必须选择到模型文件夹。 配置完成后,单击“确定”,新增模型版本。 在版本列表,当新增版本的“状态”变成“创建成功”时,表示模型新版本创建完成。
  • 删除我的模型 删除操作无法恢复,请谨慎操作。 在ModelArts Studio控制台左侧导航栏,选择“我的模型”进入模型列表。 在模型列表,单击目标模型名称,进入“模型详情”页面。 在“我的版本”区域,单击版本号,进入“版本详情”页面。查看该版本的模型“任务记录”是否为空。 是,表示模型未被用于训推任务,可以直接删除。则直接执行下一步。 否,表示模型已被用于训推任务,需要先删除所有任务,再执行下一步。 确认该模型的各个版本的“任务记录”都为空。 当模型存在任务记录会删除失败。 在“模型详情”页面,单击右上角的“删除”,在弹窗中输入“DELETE”,单击“确定”,删除模型。
  • 创建我的模型 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,单击“我的模型”。 在“我的模型”页面右上角,单击“创建模型”。 在“创建模型”页面,配置相关参数。 表1 创建模型参数说明 参数 说明 来源模型 单击“选择基础模型”,在弹窗中选择模型,单击“确定”。 关于模型系列的详细介绍,请参见表2。 模型名称 自定义模型名称。支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、下划线(_)、中划线(-)和(.)。 描述 自定义模型简介。支持100字符。 权重设置与词表 默认选择“自定义权重”。权重文件指的是模型的参数集合。 自定义权重存储路径 单击“自定义权重存储路径”右侧的文件图标,选择存放模型权重文件的OBS路径(必须选择到模型文件夹),然后单击“确定”。 您需要先将权重文件上传至OBS桶中,且权重文件必须满足对应模型的文件格式要求。详细信息,请参见前提条件。 单次上传本地文件到OBS的总大小不能超过5GB,详情请参见如何上传超过5GB的大对象。 表2 模型系列介绍 模型系列 模型类型 应用场景 支持语言 支持地域 百川 文本生成 对话问答、数学推理、代码生成、翻译 中文、英文 西南-贵阳一、华东二 ChatGLM ChatGLM3 文本生成 对话问答、数学推理、代码生成 中文、英文 西南-贵阳一、华东二 GLM-4 文本生成 对话问答、长文本推理、代码生成 中文、英文 西南-贵阳一、华东二 DeepseekCoder 文本生成 对话问答、文本推理 中文、英文 西南-贵阳一、华东二 DeepSeek DeepSeek-R1 文本生成 对话问答、文本生成推理 中文、英文 西南-贵阳一、华北-乌兰察布一 DeepSeek-V3 文本生成 对话问答、翻译 中文、英文 西南-贵阳一、华北-乌兰察布一 Llama2 文本生成 对话问答、智能创作、文本摘要 英文 西南-贵阳一、华东二 Llama3 文本生成 对话问答、智能创作、文本摘要 英文 西南-贵阳一、华东二 Llama3.1 文本生成 对话问答、智能创作、文本摘要 英文 西南-贵阳一、华东二 通义千问 Qwen 文本生成 对话问答、智能创作、文本摘要、翻译、代码生成、数学推理 中文、英文 西南-贵阳一、华东二 QwQ 文本生成 对话问答 英文 西南-贵阳一 通义千问1.5 文本生成 代码生成、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 通义千问2 Qwen2 文本生成 多语言处理、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Qwen2-VL 图像理解 图像理解、对话问答 中文、英文 西南-贵阳一、华东二 通义千问2.5 Qwen2.5 文本生成 多语言处理、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Qwen2.5-VL 图像理解 图像理解、对话问答 中文、英文 西南-贵阳一 Yi 文本生成 代码生成、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 参数配置完成后,单击“创建”,创建自定义模型。 在模型列表,当模型“状态”变成“创建成功”时,表示模型创建完成。
  • 约束限制 用于生成专属模型的模型权重文件需要满足Hugging Face上的对应模型的文件格式要求。 模型权重文件夹下包括权重类文件、词表类文件和配置类文件。 可以使用transformers的from_pretrained方法对模型权重文件夹进行加载。 当选择ChatGLM3-6B、GLM-4-9B、Qwen-7B、Qwen-14B、Qwen-72B、Baichuan2-7B、Baichuan2-13B、Llama2-7B、Llama2-13B和Llama2-80B基础模型(名字必须一致)创建模型,且“权重设置与词表”选择“自定义权重”时,需要修改权重配置才能正常运行模型,操作步骤请参见修改权重配置。
  • 访问模型广场 登录ModelArts Studio控制台,在顶部导航栏选择目标区域。 在左侧导航栏,单击“模型广场”。 在“模型广场”页面的“模型筛选”区域,按需选择模型系列、模型类型、支持作业和上下文长度进行筛选,或者直接输入模型名称进行搜索。 关于模型系列的介绍,请参见模型介绍。 表1 模型筛选说明 筛选项 说明 模型系列 支持按照全部、DeepSeek、通义千问2、通义千问2.5、ChatGLM、Deepseek Coder等模型系列进行筛选。不同地域支持的模型系列不同,详情请参见模型介绍。 模型类型 支持按照全部、文本生成等模型类型进行筛选。 支持作业 支持按照全部、部署、调优等支持作业进行筛选。 上下文长度 支持按照全部、16K以下、16K等上下文长度进行筛选。 在“模型广场”页面的目标模型区域,单击“模型详情”,查看模型的介绍、基本信息和版本信息。 在“模型详情”页面右上角,单击“调优”、“压缩”或“部署”,使用模型进行训推。 当按钮置灰时,表示模型不支持该任务。部分模型支持“在线体验”功能,请以实际环境为准。 关于如何调优模型,请参见使用ModelArts Studio(MaaS)调优模型。 关于如何压缩模型,请参见使用ModelArts Studio(MaaS)压缩模型。 关于如何部署模型,请参见使用ModelArts Studio(MaaS)部署模型服务。
  • 模型介绍 表2列举了ModelArts Studio大模型即服务平台支持的模型清单。关于模型的详细信息请在“模型详情”页面查看。 表2 模型广场的模型系列介绍 模型系列 模型类型 应用场景 支持语言 支持地域 模型介绍 DeepSeek DeepSeek-R1 文本生成 对话问答、文本生成推理 中文、英文 西南-贵阳一、华北-乌兰察布一 深度求索(DeepSeek)自主研发的DeepSeek-R1智能体模型,基于核心技术突破,具备超长上下文理解与高效推理能力,支持多模态交互及API集成,可驱动智能客服、数据分析等场景应用,以行业领先的性价比加速企业智能化升级。 DeepSeek-V3 文本生成 对话问答、翻译 中文、英文 西南-贵阳一、华北-乌兰察布一 DeepSeek-V3是一个强大的混合专家 (MoE) 语言模型,开创了一种无辅助损失的负载平衡策略,并设置了多Token预测训练目标以获得更强大的性能。 通义千问2 Qwen2 文本生成 多语言处理、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Qwen2是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿,包括专家混合模型,并在一系列针对语言理解,语言生成,多语言能力,编码,数学,推理等的基准测试中表现出对专有模型的竞争力。 Qwen2-VL 图像理解 图像理解、对话问答 中文、英文 西南-贵阳一、华东二 Qwen2-VL是阿里云推出的具有70亿参数的大型视觉语言模型,专注于图像和文本的多模态理解和生成任务。 通义千问2.5 Qwen2.5 文本生成 多语言处理、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Qwen2.5是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2.5,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿。 Qwen2.5-VL 图像理解 图像理解、对话问答 中文、英文 西南-贵阳一 通义千问2.5-VL-7B是阿里云通义千问团队开源的多模态视觉语言模型,参数规模为70亿,具备强大的视觉和语言理解能力。 ChatGLM GLM-4 文本生成 对话问答、长文本推理、代码生成 中文、英文 西南-贵阳一、华东二 GLM-4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B及其人类偏好对齐的版本GLM-4-9B-Chat均表现出较高的性能。 ChatGLM3 文本生成 对话问答、数学推理、代码生成 中文、英文 西南-贵阳一、华东二 ChatGLM3-6B是ChatGLM系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B引入了更强大的基础模型和更完整的功能支持。 Deepseek-Coder 文本生成 对话问答、文本推理 中文、英文 西南-贵阳一、华东二 Deepseek Coder由一系列代码语言模型组成,每个模型都从头开始在2T标记上进行训练,其中87%为代码,13%为英文和中文的自然语言。在编码能力方面,DeepSeek Coder在多种编程语言和各种基准测试中均在开源代码模型中取得了较高性能。 Yi 文本生成 代码生成、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Yi系列模型是01.AI从零训练的下一代开源大语言模型。Yi系列模型是一个双语的语言模型,在3T多语言语料库上训练而成,是全球最强大的大语言模型之一。Yi系列模型在语言认知、常识推理、阅读理解等方面表现优异。 通义千问1.5 文本生成 代码生成、数学推理、对话问答 中文、英文 西南-贵阳一、华东二 Qwen1.5是阿里云研发的通义千问大语言模型系列,包括不同模型大小的基础语言模型和对话聊天模型,可适应多种自然语言和代码。Qwen1.5版本开源了包括0.5B、1.8B、4B、7B、14B和72B在内的六种大小的基础和聊天模型,同时,也开源了量化模型。不仅提供了Int4和Int8的GPTQ模型,还有AWQ模型,以及GGUF量化模型。 通义千问 Qwen 文本生成 对话问答、智能创作、文本摘要、翻译、代码生成、数学推理 中文、英文 西南-贵阳一、华东二 通义千问-14B(Qwen-14B)是阿里云研发的通义千问大模型系列的140亿参数规模的模型。通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模的模型。通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。 QwQ 文本生成 对话问答 英文 西南-贵阳一 QwQ是通义千问系列的推理模型。与传统的指令调优模型相比,具有思维和推理能力的QwQ在下游任务(尤其是疑难问题)中可以实现显著的性能提升。 模型分为量化模型和非量化模型,其中,量化模型又包括SmoothQuant-W8A8和AWQ-W4A16两种。 AWQ-W4A16量化模型可以由非量化模型压缩后生成,也可以直接使用开源AWQ权重。 SmoothQuant-W8A8量化模型只能由非量化模型压缩生成。 ModelArts Studio大模型即服务平台已预置非量化模型与AWQ-W4A16量化模型的模型模板。 非量化模型可以支持调优、压缩、部署等操作。 量化模型仅支持部署操作。当需要获取SmoothQuant-W8A8量化模型时,则可以通过对非量化模型进行模型压缩获取。
  • 准备资源池 在ModelArts Studio大模型即服务平台进行模型调优、压缩或部署时,需要选择资源池。MaaS服务支持专属资源池和公共资源池。 专属资源池:专属资源池不与其他用户共享,资源更可控。在使用专属资源池之前,您需要先创建一个专属资源池,然后在AI开发过程中选择此专属资源池。MaaS服务可以使用在ModelArts Standard形态下创建的专属资源池用于模型训推。创建专属资源池的操作指导请参见创建Standard专属资源池。 MaaS服务只支持使用驱动版本是23.0.5的专属资源池,其他版本会导致任务失败。当专属资源池的驱动版本不适配时,可以参考升级Standard专属资源池驱动升级驱动。 公共资源池:公共资源池提供公共的大规模计算集群,根据用户作业参数分配使用,资源按作业隔离。MaaS服务可以使用ModelArts Standard形态下提供的公共资源池完成模型训推,按照使用量计费,方便快捷。 资源池必须和MaaS服务在同一个Region下,否则无法选择到该资源池。
  • 准备OBS桶 在ModelArts Studio大模型即服务平台创建自定义模型、调优或压缩模型时,需要在 对象存储服务 OBS中创建OBS桶,用于存放模型权重文件、训练数据集或者是存放永久保存的日志。 创建OBS桶和上传文件的操作指导请参见OBS控制台快速入门。 仅“华东二”、“西南-贵阳一”和“华北-乌兰察布一”区域支持使用ModelArts Studio大模型即服务平台(MaaS)。 OBS桶必须和MaaS服务在同一个Region下,否则无法选择到该OBS路径。
  • 使用流程 表1 MaaS使用流程 步骤 操作 说明 相关文档 1 准备工作 在开始使用ModelArts Studio大模型即服务平台前,需要先准备好相关依赖资源,例如创建OBS桶、创建资源池等。 准备ModelArts Studio(MaaS)资源 2 模型创建 ModelArts Studio提供了基于昇腾云算力适配的开源大模型,您可以使用这些基础模型,结合自定义的模型权重文件,创建个人专属的模型。创建成功的模型可以进行调优、压缩、推理等操作。 在ModelArts Studio(MaaS)创建模型 3 模型调优 完成数据集的准备后,可以在ModelArts Studio大模型即服务平台对模型广场的预置模型或者自定义模型进行调优。模型调优,即使用训练数据集和验证数据集训练模型。 使用ModelArts Studio(MaaS)调优模型 模型压缩 ModelArts Studio大模型即服务平台支持对模型广场的预置模型或者自定义模型进行模型压缩,以此提升推理服务性能、降低部署成本。 使用ModelArts Studio(MaaS)压缩模型 4 模型部署 ModelArts Studio大模型即服务平台支持将模型广场的预置模型或者自定义模型部署到计算资源上,便于在“模型体验”或其他业务环境中可以调用该模型。 使用ModelArts Studio(MaaS)部署模型服务 5 模型体验 在ModelArts Studio大模型即服务平台开通预置服务的商用服务、领取预置服务的免费服务额度或者在我的服务完成模型部署后,可以在“模型体验”调用该模型服务进行功能体验。 在ModelArts Studio(MaaS)体验模型服务 调用模型服务 在ModelArts Studio大模型即服务平台开通预置服务的商用服务、领取预置服务的免费额度或者在我的服务完成模型部署后,可以在其他业务环境中调用该模型服务进行预测。 调用ModelArts Studio(MaaS)部署的模型服务 免费体验预置服务 ModelArts Studio大模型即服务平台给新用户分配了免费调用额度,无需部署即可一键体验DeepSeek系列的预置模型服务。 免费体验ModelArts Studio(MaaS)预置服务 在预置服务中开通商用服务 MaaS预置服务的商用服务为企业用户提供高性能、高可用的推理 API服务 ,支持按Token用量计费的模式。该服务适用于需要商用级稳定性、更高调用频次和专业支持的场景。 在ModelArts Studio(MaaS)预置服务中开通商用服务 - 应用体验 ModelArts Studio大模型即服务平台提供了MaaS应用体验中心,为具体的应用场景提供一整套解决方案。 在ModelArts Studio(MaaS)应用体验中心查看应用解决方案 - 查看服务的调用数据和监控指标 MaaS提供调用统计功能,支持查看我的服务、预置服务的商用服务、预置服务的免费服务在指定时间段内的调用数据和监控指标详情,包括总调用次数、总调用失败次数、调用总Tokens数、输入Tokens数、输出Tokens数、平均响应时延等信息,并以分钟为最小时间粒度展示数据趋势,帮助您了解服务的使用情况和性能变化,从而更有效地进行模型评估、问题定位、故障排除和性能优化。 在ModelArts Studio(MaaS)查看调用数据和监控指标
  • 应用场景 ModelArts Studio大模型即服务平台(MaaS)的应用场景: 业界主流开源大模型覆盖全 MaaS集成了业界主流开源大模型,含Llama、Baichuan、Yi、Qwen、DeepSeek模型系列,所有的模型均基于昇腾AI云服务进行全面适配和优化,使得精度和性能显著提升。开发者无需从零开始构建模型,只需选择合适的预训练模型进行微调或直接应用,减轻模型集成的负担。 零代码、免配置、免调优模型开发 平台结合与100+客户适配、调优开源大模型的行业实践经验,沉淀了大量适配昇腾,和调优推理参数的最佳实践。通过为客户提供一键式训练、自动超参调优等能力,和高度自动化的参数配置机制,使得模型优化过程不再依赖于手动尝试,显著缩短了从模型开发到部署的周期,确保了模型在各类应用场景下的高性能表现,让客户能够更加聚焦于业务逻辑与创新应用的设计。 资源易获取,按需收费,按需扩缩,支撑故障快恢与断点续训 企业在具体使用大模型接入企业应用系统的时候,不仅要考虑模型体验情况,还需要考虑模型具体的精度效果,和实际应用成本。 MaaS提供灵活的模型开发能力,同时基于昇腾云的算力底座能力,提供了若干保障客户商业应用的关键能力。 保障客户系统应用大模型的成本效率,按需收费,按需扩缩的灵活成本效益资源配置方案,有效避免了资源闲置与浪费,降低了进入AI领域的门槛。 架构强调高可用性,多数据中心部署确保数据与任务备份,即使遭遇故障,也能无缝切换至备用系统,维持模型训练不中断,保护长期项目免受时间与资源损耗,确保进展与收益。 大模型应用开发,帮助开发者快速构建智能Agents 在企业中,项目级复杂任务通常需要理解任务并拆解成多个问题再进行决策,然后调用多个子系统去执行。MaaS基于多个优质昇腾云开源大模型,提供优质Prompt模板,让大模型准确理解业务意图,分解复杂任务,沉淀出丰富的多个智能Agent,帮助企业快速智能构建和部署大模型应用。
  • 数据 WT柱图的数据结构如下: [ { "x": "销售", "y1": 40, "y2": 20, "y3": 10 }, { "x": "管理", "y1": 50, "y2": 30, "y3": 20 }, { "x": "技术", "y1": 60, "y2": 40, "y3": 30 }, { "x": "客服", "y1": 70, "y2": 50, "y3": 40 }, { "x": "研发", "y1": 80, "y2": 60, "y3": 50 }, { "x": "市场", "y1": 85, "y2": 83, "y3": 60 } ] x字段表示类目。 y字段表示数据系列(分组):y映射不同的字段表示不同的数据系列(组),数据根据y映射的字段进行分组显示。 新增数据系列:单击y字段后的,增加数据系列。对于已添加的系列,单击该系列右侧的按钮可删除该系列。 添加系列配置如下: 系列值:所映射的源数据中的字段名称。 系列名:可以输入自定义名称,如果“系列名”为空,则默认使用“系列值”作为“系列名”。 颜色:该系列的柱子颜色。 堆叠:堆叠名称,可以输入自定义名称。若同一个类目(x值相等)的不同系列设置了相同的堆叠名称,系列数据将堆叠显示。 超链接:表示单击组件中的某一数据时,网页将会指向的目标链接。 链接方式: 新窗口:表示目标链接将会在浏览器的新窗口中打开。 当前页:表示目标链接在当前浏览器窗口打开。 浮窗:表示目标链接会在当前大屏中心的悬浮窗口中打开。 配置数据系列: 单击数据系列前方的,在展开的面板中配置该系列的指定样式(系列名,颜色等)。
  • 数据 图2 FLV视频流播放器-数据 url:FLV视频流的公网地址,格式为https:// 域名 /目录/文件名.flv。 数据源类型:选择图表的数据源。系统提供了多种数据源供用户选择,您需要先添加数据源,具体操作请参见数据连接概述。 数据转换器:选择数据转换器,可以将数据转换为符合展示需求数据,数据转换器的详细介绍,请参见使用数据转换器。 自动更新请求:勾选自动更新请求,并设置更新间隔后,数据将根据间隔时间自动轮询。 预览结果:单击“预览结果”,显示选择的数据源的数据信息。单击“更新查询”可以在数据源变更时手动更新组件数据。
共100000条
提示

您即将访问非华为云网站,请注意账号财产安全