检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
放入模型包,新的镜像超过35G,在服务器(如ECS)上制作。具体案例参考在ECS中通过Dockerfile从0制作自定义镜像用于推理。 图3 模型的自定义镜像制作场景三 约束限制 自定义镜像中不能包含恶意代码。 创建模型的自定义镜像大小不超过50GB。 对于同步请求模式的模型,如
'{"name":"Tom"}' 127.0.0.1:8080/greet curl -X GET 127.0.0.1:8080/goodbye 图3 访问在线服务 limit/request配置cpu和内存大小,已知单节点Snt9B机器为:8张Snt9B卡+192u1536g,请合理规划
指定事件信息包含的内容,最长256个字符。 source 否 String 指定返回的事件来源,取值范围为[K8S Job Task]。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Language 否 String 语言。 响应参数 状态码:200 表4 响应Body参数
NAT网关”。 选择Server所使用“虚拟私有云”和“子网”,计费模式根据实际需求选择。其余参数配置可使用默认值,单击“立即购买”。 图3 购买公网NAT网关 在产品配置信息确认页面,再次核对弹性公网IP信息。 选择按需计费的NAT网关时,单击“提交”。 选择包年/包月计费的NAT网关时,单击“去支付”。
管理员为您配置委托权限,详细操作参考配置ModelArts委托。 单击顶部“费用”,进入费用中心,单击“订单管理 > 退订与退换货”。 图3 退订与退换货 勾选需要退订的多个实例,单击“批量退订”。 根据界面提示,确认需要退订的资源,并选择退订原因。 图4 退订资源 确认退订信息
服务部署时动态将模型加载到服务负载。 配置健康检查 大模型场景下导入的模型,要求配置健康检查,避免在部署时服务显示已启动但实际不可用。 图3 采用自定义引擎,开启动态加载并配置健康检查示例图 部署在线服务 部署服务时,需满足以下参数配置: 自定义部署超时时间 大模型加载启动的时间
MnistService示例如下。更多TensorFlow推理代码示例请参考Tensorflow、Tensorflow2.1。 推理代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
“策略名称”支持自定义。 “策略配置方式”为“JSON视图”。 “策略内容”请参见ModelArts依赖的OBS权限自定义策略样例。 图3 OBS相关的最小化权限 创建ModelArts开发环境的使用权限的自定义策略,如图4所示。参数配置说明如下: “策略名称”支持自定义。 “策略配置方式”为“JSON视图”。
"modelarts:pool:delete" ], "Effect": "Deny" } ] } 示例3:多个授权项策略。 一个自定义策略中可以包含多个授权项,且除了可以包含本服务的授权项外,还可以包含其他服务的授权项,可以包含的其他服务必须跟
并且方便进行分享。 保存镜像时,安装的依赖包(pip包)不丢失,VS Code远程开发场景下,在Server端安装的插件不丢失。 亮点特性3:预置镜像 - 即开即用,优化配置,支持主流AI引擎 每个镜像预置的AI引擎和版本是固定的,在创建Notebook实例时明确AI引擎和版本,包括适配的芯片。
<size> <width>767</width> <height>959</height> <depth>3</depth> </size> <segmented>0</segmented> <object> <name>bag</name>
预检失败&硬件正常 场景三:环境预检测成功并进入用户业务阶段,硬件检测出现故障并且用户业务非正常退出,系统隔离所有故障节点并重新下发训练作业。 图3 业务失败&硬件故障 场景四:环境预检测成功并进入用户业务阶段,硬件无故障,当用户业务异常时系统以失败状态结束作业。 图4 业务失败&硬件正常
长度。 不涉及。 最大采集文件数 单个节点所有日志采集规则监听的文件数不超过4095个文件。 不涉及。 配置更新 配置更新生效的延时约1-3分钟。 不涉及。 安装插件 在资源池中安装指定插件。 登录ModelArts管理控制台,在左侧导航栏中选择“资源管理 > 标准算力集群 (Standard
操作步骤 调用认证鉴权接口获取用户的Token。 请求消息体: URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": {
步骤四:在Cherry Studio中使用MaaS DeepSeek 在Cherry Studio左侧导航栏,单击图标,选择已配置好的模型。 图3 选择模型 在文本框中输入文字,开始对话。 您也可以选择顶部菜单中的模型名字切换模型。 图4 模型问答示例 父主题: DeepSeek基于MaaS推理和应用
“详情”:可以查看服务的基本信息,包括服务、模型、资源等设置信息。 “资源监控”:可以查看服务的算力利用率、显存利用率和资源监控信息。 表3 资源监控参数说明 参数 说明 算力使用率 服务的算力使用情况。当请求率较低时,使用率会显示为0。 显存利用率 服务的显存使用情况。 “事件
配置2个地方: 训练代码中需解析输入路径参数和输出路径参数。ModelArts Standard推荐以下方式实现参数解析。 1 2 3 4 5 6 7 8 9 10 import argparse # 创建解析 parser = argparse.Argumen
同步或添加图片 在“数据标注”节点单击“实例详情”进入数据标注页面,数据标注的图片来源有两种,通过本地添加图片和同步OBS中的图片数据。 图3 添加本地图片 图4 同步OBS图片数据 添加数据:您可以将本地图片快速添加到ModelArts,同时自动上传至创建项目时所选择的OBS路径
单击服务名称,进入服务详情页面,查看服务详情信息,单击“日志”页签,查看服务日志信息。 图2 查看服务日志信息 服务预测 在服务详情页面,单击“预测”页签,进行服务预测。 图3 服务预测 父主题: 创建模型规范参考
NetworkMetadataCreation object 网络资源的metadata信息。 spec 是 NetworkSpec object 网络资源的描述信息。 表3 NetworkMetadataCreation 参数 是否必选 参数类型 描述 labels 是 NetworkMetadataLabels