华为云用户手册

  • 如何在训练中加载部分训练好的参数? 在训练作业时,需要从预训练的模型中加载部分参数,初始化当前模型。请您通过如下方式加载: 通过如下代码,您可以查看所有的参数。 from moxing.tensorflow.utils.hyper_param_flags import mox_flagsprint(mox_flags.get_help()) 通过如下方式控制载入模型时需要恢复的参数名。其中,“checkpoint_include_patterns”为需要恢复的参数,“checkpoint_exclude_patterns”为不需要恢复的参数。 checkpoint_include_patterns: Variables names patterns to include when restoring checkpoint. Such as: conv2d/weights.checkpoint_exclude_patterns: Variables names patterns to include when restoring checkpoint. Such as: conv2d/weights. 通过以下方式控制需要训练的参数列表。其中,“trainable_include_patterns”为需要训练的参数列表,“trainable_exclude_patterns”为不需要训练的参数列表。 --trainable_exclude_patterns: Variables names patterns to exclude for trainable variables. Such as: conv1,conv2.--trainable_include_patterns: Variables names patterns to include for trainable variables. Such as: logits. 父主题: 编写训练代码
  • “mox.run”添加增量训练参数 在完成标注数据或数据集的修改后,您可以在“mox.run”中,修改“log_dir”参数,并新增“checkpoint_path”参数。其中“log_dir”参数建议设置为一个新的目录,“checkpoint_path”参数设置为上一次训练结果输出路径,如果是OBS目录,路径填写时建议使用“obs://”开头。 如果标注数据中的标签发生了变化,在运行“mox.run”前先执行如果标签发生变化的操作。 mox.run(input_fn=input_fn, model_fn=model_fn, optimizer_fn=optimizer_fn, run_mode=flags.run_mode, inter_mode=mox.ModeKeys.EVAL if use_eval_data else None, log_dir=log_dir, batch_size=batch_size_per_device, auto_batch=False, max_number_of_steps=max_number_of_steps, log_every_n_steps=flags.log_every_n_steps, save_summary_steps=save_summary_steps, save_model_secs=save_model_secs, checkpoint_path=flags.checkpoint_url, export_model=mox.ExportKeys.TF_SERVING)
  • 如果标签发生变化 当数据集中的标签发生变化时,需要执行如下语句。此语句需在“mox.run”之前运行。 语句中的“logits”,表示根据不同网络中分类层权重的变量名,配置不同的参数。此处填写其对应的关键字。 mox.set_flag('checkpoint_exclude_patterns', 'logits') 如果使用的是MoXing内置网络,其对应的关键字需使用如下API获取。此示例将打印Resnet_v1_50的关键字,为“logits”。 import moxing.tensorflow as moxmodel_meta = mox.get_model_meta(mox.NetworkKeys.RESNET_V1_50)logits_pattern = model_meta.default_logits_patternprint(logits_pattern) 您也可以通过如下接口,获取MoXing支持的网络名称列表。 import moxing.tensorflow as moxprint(help(mox.NetworkKeys)) 打印出来的示例如下所示: Help on class NetworkKeys in module moxing.tensorflow.nets.nets_factory:class NetworkKeys(builtins.object) | Data descriptors defined here: | | __dict__ | dictionary for instance variables (if defined) | | __weakref__ | list of weak references to the object (if defined) | | ---------------------------------------------------------------------- | Data and other attributes defined here: | | ALEXNET_V2 = 'alexnet_v2' | | CIFARNET = 'cifarnet' | | INCEPTION_RESNET_V2 = 'inception_resnet_v2' | | INCEPTION_V1 = 'inception_v1' | | INCEPTION_V2 = 'inception_v2' | | INCEPTION_V3 = 'inception_v3' | | INCEPTION_V4 = 'inception_v4' | | LENET = 'lenet' | | MOBILENET_V1 = 'mobilenet_v1' | | MOBILENET_V1_025 = 'mobilenet_v1_025' | | MOBILENET_V1_050 = 'mobilenet_v1_050' | | MOBILENET_V1_075 = 'mobilenet_v1_075' | | MOBILENET_V2 = 'mobilenet_v2' | | MOBILENET_V2_035 = 'mobilenet_v2_035' | | MOBILENET_V2_140 = 'mobilenet_v2_140' | | NASNET_CIFAR = 'nasnet_cifar' | | NASNET_LARGE = 'nasnet_large' | | NASNET_MOBILE = 'nasnet_mobile' | | OVERFEAT = 'overfeat' | | PNASNET_LARGE = 'pnasnet_large' | | PNASNET_MOBILE = 'pnasnet_mobile' | | PVANET = 'pvanet' | | RESNET_V1_101 = 'resnet_v1_101' | | RESNET_V1_110 = 'resnet_v1_110' | | RESNET_V1_152 = 'resnet_v1_152' | | RESNET_V1_18 = 'resnet_v1_18' | | RESNET_V1_20 = 'resnet_v1_20' | | RESNET_V1_200 = 'resnet_v1_200' | | RESNET_V1_50 = 'resnet_v1_50' | | RESNET_V1_50_8K = 'resnet_v1_50_8k' | | RESNET_V1_50_MOX = 'resnet_v1_50_mox' | | RESNET_V1_50_OCT = 'resnet_v1_50_oct' | | RESNET_V2_101 = 'resnet_v2_101' | | RESNET_V2_152 = 'resnet_v2_152' | | RESNET_V2_200 = 'resnet_v2_200' | | RESNET_V2_50 = 'resnet_v2_50' | | RESNEXT_B_101 = 'resnext_b_101' | | RESNEXT_B_50 = 'resnext_b_50' | | RESNEXT_C_101 = 'resnext_c_101' | | RESNEXT_C_50 = 'resnext_c_50' | | VGG_16 = 'vgg_16' | | VGG_16_BN = 'vgg_16_bn' | | VGG_19 = 'vgg_19' | | VGG_19_BN = 'vgg_19_bn' | | VGG_A = 'vgg_a' | | VGG_A_BN = 'vgg_a_bn' | | XCEPTION_41 = 'xception_41' | | XCEPTION_65 = 'xception_65' | | XCEPTION_71 = 'xception_71'
  • 训练输出的日志只保留3位有效数字,是否支持更改loss值? 在训练作业中,训练输出的日志只保留3位有效数字,当loss过小的时候,显示为0.000。具体日志如下: INFO:tensorflow:global_step/sec: 0.382191INFO:tensorflow:step: 81600(global step: 81600) sample/sec: 12.098 loss: 0.000INFO:tensorflow:global_step/sec: 0.382876INFO:tensorflow:step: 81700(global step: 81700) sample/sec: 12.298 loss: 0.000 由于当前不支持更改loss值,您可以通过将loss的值乘以1000来规避此问题。 父主题: 查看作业详情
  • 解决方法 在遇到资源不足的情况时,ModelArts会进行三次重试,在服务重试期间,如果有资源释放出来,则服务可以正常部署成功。 如果三次重试后依然没有足够的资源,则本次服务部署失败。参考以下方式解决: 如果是在公共资源池部署服务,可等待其他用户释放资源后,再进行服务部署。 如果是在专属资源池部署服务,在满足模型需求的前提下,尝试选用更小的容器规格或自定义规格,进行服务部署; 如果当前资源池的资源确实不够,也可以考虑将资源池扩容后再进行服务部署。公共资源池扩容,请联系系统管理员。专属资源池扩容,可参考扩缩容资源池。
  • 解决方法 根据容器日志进行排查,查看健康检查接口失败的具体原因。 镜像健康检查配置问题,需修复代码后重新制作镜像创建AI应用后部署服务。了解镜像健康接口配置请参考模型配置文件编写说明中health参数说明。 AI应用健康检查配置问题,需重新创建AI应用或者创建AI应用新版本,配置正确的健康检查,使用新的AI应用或版本重新部署服务。了解AI应用健康检查请参考制作模型镜像并导入中的“健康检查”参数说明。
  • 在ModelArts中选择OBS路径时,找不到已创建的OBS桶 请确保创建的桶和ModelArts服务在同一区域: 查看创建的OBS桶所在区域。 登录OBS管理控制台。 进入“对象存储”界面,可在桶列表的“桶名称”列查找,或在右上方的搜索框中输入已经创建的桶名称搜索,找到您创建的OBS桶。 在“区域”列可查看创建的OBS桶的所在区域,如图1所示。 图1 OBS桶所在区域 查看ModelArts所在区域。 登录ModelArts控制台,在控制台左上角可查看ModelArts所在区域。 图2 控制台所在区域 比对您创建的OBS桶所在区域与ModelArts所在区域是否一致。务必保证OBS桶与ModelArts所在区域一致。 父主题: 数据管理
  • 线上训练得到的模型是否支持离线部署在本地? 通过ModelArts预置算法训练得到的模型是保存在OBS桶里的,模型支持下载到本地。 在训练作业列表找到需要下载模型的训练作业,单击名称进入详情页,获取训练输出路径。 图1 获取训练输出位置 单击“输出路径”,跳转至OBS对象路径,下载训练得到的模型。 在本地环境进行离线部署。 具体请参见模型调试章节在本地导入模型,参见服务调试章节,将模型离线部署在本地并使用。 父主题: 功能咨询
  • 训练作业一直在等待中(排队)? 训练作业状态一直在等待中状态表示当前所选的资源池规格资源紧张,作业需要进行排队,请耐心等待。如想降低排队时间,根据您所选资源池的类型,有以下建议: 公共资源池: 公共资源池资源较少,高峰期如举办相关活动时会存在资源不足情况。有以下方法可以尝试: 如果使用的是免费规格,可以换成收费规格,免费规格资源较少,排队概率高。 规格选择卡数尽量少,如可以选择1卡,相比于选择8卡排队几率大大降低。 可以尝试使用其他Region(如北京四切换为上海一)。 如果有长期的资源使用诉求,可以购买独占使用的专属资源池。 专属资源池: 如有多个可用的专属资源池,可尝试选择其他较为空闲的资源池。 可清理当前资源池下的其他资源,如停止长时间不使用的Notebook。 在非高峰期时提交训练作业。 如长期长时间排队可以联系该专属资源池的帐号管理员,管理员可根据使用情况对资源池进行扩容。 相关问题:为什么资源充足还是在排队? 父主题: 创建训练作业
  • 训练专属资源池如何与SFS弹性文件系统配置对等链接? 配置训练专属资源池与SFS弹性文件系统的对等链接,具体步骤如下: 登录ModelArts管理控制台,选择“专属资源池”。 在专属资源池列表中,单击资源池“ID/名称”,进入详情页。 单击右上角“配置NAS VPC”,在“修改NAS VPC”弹窗中,打开“连通NAS VPC”,配置NAS VPC和NAS子网,与SFS弹性文件系统所配置的VPC相同。 单击“确定”,即配置完成。配置完成后,在创建训练作业时,就可以看到SFS的配置选项。 父主题: 资源池
  • VS Code背景配置为豆沙绿 在VS Code的配置文件settings.json中添加如下参数 "workbench.colorTheme": "Atom One Light", "workbench.colorCustomizations": { "[Atom One Light]": { "editor.background": "#C7EDCC", "sideBar.background": "#e7f0e7", "activityBar.background": "#C7EDCC", }, }, 父主题: VS Code使用技巧
  • 如何使用API接口获取订阅算法的订阅id和版本id? 调用API接口使用“我的订阅”方式创建训练作业时,请求参数需要填写算法的订阅id(algorithm.subscription_id)和版本id(algorithm.item_version_id)。可调用如下接口获取相关信息,如下以北京四为例: 从AI Gallery获取订阅的算法列表 GET https://modelarts.cn-north-4.myhuaweicloud.com/v1/aihub/subscriptions?content_types=algo&offset=0&limit=5&sort_dir=desc 获取订阅算法的subscription_id,假设为43b22aeb-5b28-4fad-9581-e3c16d5a3e68,该值即为算法的订阅id。 根据subscription_id获取订阅算法的版本列表 GET https://modelarts.cn-north-4.myhuaweicloud.com/v1/aihub/subscriptions/43b22aeb-5b28-4fad-9581-e3c16d5a3e68/versions 获取订阅算法的版本的version_id,该值即为算法的版本id。 父主题: API/SDK
  • 更新模型版本时,预测功能不可用? 针对某一部署的边缘服务,如果在更新模型版本时,即编辑边缘服务,修改其使用的模型版本,导致此边缘服务的预测功能暂不可用。 针对此场景,由于更新了模型版本,边缘服务将重新部署,处于部署中的边缘服务,则无法使用预测功能。即更新模型版本,会导致预测功能中断。等待边缘服务重新处于运行中时,预测功能恢复正常。 补充说明一点,针对在线服务和批量服务,当更新模型版本时,不会中断预测功能。 父主题: 边缘服务
  • JupyterLab默认工作路径是什么? 带OBS存储的Notebook实例(旧版Notebook) JupyterLab文件默认存储路径,为创建Notebook时指定的OBS路径。 在文件列表的所有文件读写操作都是基于所选择的OBS路径下的内容操作的,跟当前实例空间没有关系。如果用户需要将内容同步到实例空间,需要选中内容,单击“Sync OBS”来实现将选中内容同步到当前容器空间。 带EVS存储的Notebook实例 JupyterLab文件默认存储路径,为创建Notebook实例时,系统自动分配的EVS空间。 在文件列表的所有文件读写操作都是基于所选择的EVS下的内容操作的。使用EVS类型的挂载,可将大数据挂载至“~/work”目录下。 父主题: 数据存储
  • 训练代码中,如何获取依赖文件所在的路径? 由于用户本地开发的代码需要上传至ModelArts后台,训练代码中涉及到依赖文件的路径时,用户设置有误的场景较多。因此推荐通用的解决方案:使用os接口得到依赖文件的绝对路径,避免报错。 以下示例展示如何通过os接口获得其他文件夹下的依赖文件路径。 示例文件目录结构: project_root #代码根目录 └─bootfile.py #启动文件 └─otherfileDirectory #其他依赖文件所在的目录 └─otherfile.py #其他依赖文件 在启动文件代码中,建议用户参考以下方式获取其他依赖文件所在路径,即示例中的otherfile_path。 import oscurrent_path = os.path.dirname(os.path.realpath(__file__)) # 获得启动文件bootfile.py的路径project_root = os.path.dirname(current_path) # 通过启动文件路径获得工程的根目录,对应ModelArts训练控制台上设置的代码目录otherfile_path = os.path.join(project_root, "otherfileDirectory", "otherfile.py") # 通过工程的根目录得到依赖文件路径 父主题: 编写训练代码
  • 如何购买或开通ModelArts? ModelArts是一个即开即用的平台,无需购买或开通,直接进入ModelArts管理控制台,完成全局配置,然后选择所需功能,直接使用即可。 ModelArts平台仅针对使用计算规格的功能才涉及计费,公共资源池全部为按需模式,根据选用规格以及作业运行时长收费。专属资源池可按需购买,也可选择包年包月购买,在运行训练作业或部署服务时,选择专属资源池,无需另外付费。 父主题: 一般性问题
  • 不启用自动停止,系统会自动停掉Notebook实例吗?会删除Notebook实例吗? 针对此问题,需要根据选择的不同资源规格进行说明。 如果使用免费规格,Notebook实例将在运行1小时后,自动停止。如果72小时内没有再次启动,会释放资源,即删除此Notebook实例。因此使用免费规格时,关注运行时间并注意文件备份。 如果使用收费的公共资源池,未启用自动停止功能时,Notebook实例不会自动停止,且不会被删除。 如果使用专属资源池,Notebook实例也不会自动停止。但是如果专属资源池被删除,则会导致此Notebook实例不可用。 父主题: 更多功能咨询
  • 在AI Gallery订阅的数据集可以在SDK中使用吗? 支持。 将AI Gallery数据集下载至OBS,然后在SDK直接使用此OBS目录下的数据即可。详细操作步骤如下所示: 将AI Gallery数据集下载至OBS。详细指导请参见下载数据集。 数据集可以直接下载至OBS,也可以下载至ModelArts数据集中,不管任何方式,其最终的存储路径均为OBS目录。 下载至OBS时,在下载任务完成后,数据将存储在下载时设置的OBS目录中。请注意下载任务中设置的区域,后续使用SDK或ModelArts控制台时,使用的区域需一致。 下载至数据集时,可以在下载任务完成后,前往ModelArts控制台,发布此数据集,在“数据集输出位置”参数获取对应的OBS目录。即数据集存储的位置。 在SDK中调用对应OBS目录下的数据。 SDK的下载和使用,请参见《SDK参考》。 可参考从OBS下载文件,通过接口直接使用上述步骤中下载的数据集。 父主题: AI Gallery
  • AI Gallery支持哪些区域? 首先,AI Gallery本身不区分区域,任意区域进入AI Gallery,其展示的商品和功能是一致的。 订阅算法或模型。 从AI Gallery订阅的算法、模型,不区分区域,但是,在前往控制台使用订阅的产品时,需选择对应的区域。支持的区域与ModelArts相同,包含华北-北京一、华北-北京四、华东-上一、华南-广州(以界面上实际支持的区域为准)。 下载数据集。 在AI Gallery中下载数据集时,不管是下载至OBS还是下载至数据集,均需设置对应的使用区域。支持的区域与ModelArts相同,包含华北-北京一、华北-北京四、华东-上一、华南-广州(以界面上实际支持的区域为准)。 父主题: AI Gallery
  • 格式介绍 “caffemode”l格式 ||---xxxx.caffemodel 模型参数文件,输入目录下有且只能有一个,必填。|---xxxx.prototxt 模型网络文件,输入目录下有且只能有一个,必填。|---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。|---plugin 自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。 “frozen_graph”格式 ||---xxxx.pb 模型网络文件,输入目录下有且只能有一个,必填。支持以frozen_graph或saved_model格式保存的模型。|---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。|---plugin 自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。 “saved_model”格式 ||---saved_model.pb 模型网络文件,输入目录下有且只能有一个,必填。支持以frozen_graph或saved_model格式保存的模型。|---variables 固定子目录名称,包含模型的权重偏差等信息,必选 |---variables.index 必选 |---variables.data-00000-of-00001 必选|---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。|---plugin 自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。
  • 在线服务和边缘服务有什么区别? 在线服务 将模型部署为一个Web服务,您可以通过管理控制台或者API接口访问在线服务。 边缘服务 云端服务是集中化的离终端设备较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不足,无法与云端相比。在此情况下,通过在靠近终端设备的地方建立边缘节点,将云端计算能力延伸到靠近终端设备的边缘节点,从而解决上述问题。 智能边缘平台(Intelligent EdgeFabric)通过纳管您的边缘节点,提供将云上应用延伸到边缘的能力,联动边缘和云端的数据,满足客户对边缘计算资源的远程管控、数据处理、分析决策、智能化的诉求。 ModelArts支持将模型通过智能边缘平台IEF,在边缘节点将模型部署为一个Web服务。您可以通过API接口访问边缘服务。 父主题: 功能咨询
  • 问题描述 从OBS中或者从容器镜像中导入模型时,开发者需要编写模型配置文件。模型配置文件描述模型用途、模型计算框架、模型精度、推理代码依赖包以及模型对外API接口。配置文件为JSON格式。配置文件中的“dependencies”,表示配置模型推理代码需要的依赖包,需要提供依赖包名、安装方式和版本约束的信息,详细参数见模型配置文件编写说明。导入模型时,模型配置文件中的安装包依赖参数“dependencies”如何编写?
  • MoXing MoXing是ModelArts自研的组件,是一种轻型的分布式框架,构建于TensorFlow、PyTorch、MXNet、MindSpore等深度学习引擎之上,使得这些计算引擎分布式性能更高,同时易用性更好。MoXing包含很多组件,其中MoXing Framework模块是一个基础公共组件,可用于访问OBS服务,和具体的AI引擎解耦,在ModelArts支持的所有AI引擎(TensorFlow、MXNet、PyTorch、MindSpore等)下均可以使用。 MoXing Framework模块提供了OBS中常见的数据文件操作,如读写、列举、创建文件夹、查询、移动、拷贝、删除等。 在ModelArts Notebook中使用MoXing接口时,可直接调用接口,无需下载或安装SDK,使用限制比ModelArts SDK和OBS SDK少,非常便捷。 详细指导:《MoXing开发指南》
  • 在AI Gallery订阅商品失败怎么办? AI Gallery是在ModelArts的基础上构建的开发者生态社区,提供模型、算法、HiLens技能、数据集等内容的共享。当您订阅商品失败可参照如下方式解决: 请检查您是否完成实名认证。 帐号注册成功后,您需要完成“实名认证”才可以正常使用服务。具体认证方式请参见帐号实名认证。 进入当前帐号的费用中心,检查是否欠费。 如果欠费,建议您参考华为云帐户充值,为您的帐号充值。 若以上都没问题,请尝试退出帐号重新登录。 单击页面右上角的帐号,选择“退出登录”,并重新登录。 父主题: AI Gallery
  • 部署后的AI应用是如何收费的? ModelArts支持将AI应用按照业务需求部署为服务。训练类型不同,部署后的计费方式不同。 将AI应用部署为服务时,根据数据集大小评估模型的计算节点个数,根据实际编码情况选择计算模式。 具体计费方式请参见ModelArts产品价格详情。部署AI应用可选择按需计费,也可根据业务类型和需求购买套餐包。 为避免出现因购买套餐和使用套餐不一致产生多余计费的问题出现, 建议您注意核对在使用的套餐包资源规格是否和购买的套餐包资源规格一致。 父主题: 计费相关
  • 为什么项目删除完了,仍然还在计费? 如果ModelArts的自动学习项目、Notebook实例、训练作业或服务,都已经处于停止状态,即总览页面没看到收费项目,仍然发现帐号还在计费。 有以下几种可能情况: 因为您在使用ModelArts过程中,将数据上传至OBS进行存储,OBS会根据实际存储的数据进行计费。建议前往OBS管理控制台,清理您不再使用的数据、文件夹以及OBS桶,避免产生不必要的费用。 您在创建Notebook时,选择了云硬盘EVS存储,该存储会单独收费,Notebook停止后,EVS还在计费,请及时删除该Notebook实例。 您在体验CodeLab时,切换规格为付费的规格时会收费。请前往CodeLab界面单击右上角停止Notebook实例。 父主题: 计费相关
  • upload后,数据将上传到哪里? 针对这个问题,有两种情况: 如果您创建的Notebook使用OBS存储实例时 单击“upload”后,数据将直接上传到该Notebook实例对应的OBS路径下,即创建Notebook时指定的OBS路径。 如果您创建的Notebook使用EVS存储实例时 单击“upload”后,数据将直接上传至当前实例容器中,即在“Terminal”中的“~/work”目录下。 父主题: 文件上传下载
  • 修订记录 发布日期 修订记录 2023-04-11 将PyCharm工具指南的常见问题合入到常见问题手册。 2023-03-30 下线Notebook(旧版)资料。 2023-01-06 下线“什么是数据标注平台”资料。 2022-11-10 新增使用 自定义镜像 创建在线服务,如何修改默认端口。 新增在线服务部署、启动、升级和修改时,拉取镜像失败如何处理? 新增在线服务部署、启动、升级和修改时,镜像不断重启如何处理? 新增在线服务部署、启动、升级和修改时,容器健康检查失败如何处理? 新增在线服务部署、启动、升级和修改时,资源不足如何处理? 2022-11-08 刷新ModelArts支持哪些AI框架?新版Notebook支持的镜像。 2022-07-20 下线“ModelArts与MLS服务的区别”资料。 2022-07-13 新增服务预测请求体大小限制是多少?。 新增在线服务运行中但是预测失败时,如何排查报错是不是模型原因导致的。 新增在线服务处于运行中状态时,如何填写推理请求的request header和request body。 新增作为调用发起方的客户端无法访问已经获取到的推理请求地址。 2022-05-16 新增VS Code连接开发环境失败常见问题。 新增如何在代码中打印GPU使用信息。 新增pip介绍及常用命令。 2022-04-28 新增如何解决“在IOS系统里打开ModelArts的Notebook,字体显示异常”的问题? 优化如何上传本地文件至Notebook?,如何下载Notebook中的文件到本地? 2022-01-04 优化如何在Notebook中上传下载OBS文件? 2021-12-20 新增如何查看帐号ID和 IAM 用户ID 新增为什么在ModelArts数据标注平台标注数据提示标注保存失败? 下线模型评估章节,转为邀测特性。 2021-10-20 新增在线服务和批量服务有什么区别? 2021-10-16 使用VS Code提交代码时弹出对话框提示用户名和用户邮箱配置错误优化步骤描述。 2021-09-16 Notebook新增FAQ 如何获取本机外网IP? 使用pip install提示Read timed out 2021-8-30 修改Notebook支持远程登录吗?,新版Notebook支持远程登录。 2021-08-20 Notebook新增FAQ VS Code使用技巧 2021-07-16 边缘服务新增FAQ 使用边缘节点部署边缘服务能否使用http接口协议? 2021-04-25 边缘服务新增FAQ。 更新模型版本时,预测功能不可用? 2021-04-19 一般性问题新增FAQ。 如何购买或开通ModelArts? 计费类新增FAQ。 Notebook中的EVS存储可以使用套餐包吗? 自动学习新增FAQ。 ModelArts自动学习与ModelArts PRO的区别 数据管理新增FAQ。 团队标注的数据分配机制是什么? 物体检测标注时,支持叠加框吗? 如何将两个数据集合并? Notebook新增FAQ。 在Notebook中,如何访问其他帐号的OBS桶? JupyterLab目录的文件、Terminal的文件和OBS的文件之间的关系 2021-04-15 AI Gallery新增FAQ。 在AI Gallery订阅的数据集可以在SDK中使用吗? 训练作业新增FAQ 大量数据文件,训练过程中读取数据效率低? Notebook新增FAQ Notebook支持远程登录吗? 不启用自动停止,系统会自动停掉Notebook实例吗?会删除Notebook实例吗? 2021-02-24 自动学习FAQ整改。 训练作业FAQ整改。 模型管理FAQ整改。 部署上线FAQ整改。 2021-02-11 新增数据标注相关FAQ。 标注结果存储在哪里? 如何将标注结果下载至本地? 新增部署上线FAQ。 在线服务和边缘服务有什么区别? 新增自动学习FAQ。 创建自动学习项目有个数限制吗? 新增API/SDK的FAQ。 ModelArts的API或SDK支持模型下载到本地吗? ModelArts的SDK支持哪些安装环境? ModelArts通过OBS的API访问OBS中的文件,算内网还是公网? 2021-01-12 新增自动学习相关FAQ。 自动学习和订阅算法有什么区别? 新增训练作业相关FAQ。 欠拟合的解决方法有哪些? 是否支持图像分割任务的训练? 新增模型管理相关FAQ。 ModelArts和Hilens的模型转换有什么区别吗? 2020-12-15 新增部署上线相关FAQ。 导入模型时,模型配置文件中的安装包依赖参数如何编写? 新增自动学习相关FAQ。 在物体检测作业中上传已标注图片后,为什么部分图片显示未标注? 新增模型管理相关FAQ。 TensorFlow模型转换失败 部署自定义镜像的模型时出现异常 2020-09-29 新增权限策略相关的FAQ。 使用ModelArts时提示“权限不足”,如何解决? 2020-09-23 新增关于SDK相关的FAQ。 ModelArts SDK、OBS SDK和MoXing的区别? 2020-09-17 新增如下章节: 在AI Gallery订阅商品失败怎么办? 2020-07-21 新增如下章节: ModelArts支持使用E CS 创建专属资源池吗? 2020-05-08 根据版本,优化如下章节。 ModelArts支持哪些AI框架? 2020-04-22 新增如下章节: 欠费后,ModelArts的资源是否会被删除? 数据集图片无法显示,如何解决? 训练好的模型是否可以下载或迁移到其他帐号?如何获取下载路径? 2020-04-07 新增如下章节: 为什么选择不了Ascend 310资源? 2020-03-30 新增如下章节: 为什么项目删除完了,仍然还在计费? 2020-01-15 新增如下章节: 计费相关 2019-12-02 新增章节: 添加图片时,图片大小有限制吗? 为什么通过Manifest文件导入失败? 部署在线服务时,自定义预测脚本python依赖包出现冲突,导致运行出错 2019-11-25 新增章节: 一般性问题 在ModelArts中如何查看OBS目录下的所有文件? ModelArts数据集保存到容器的哪里? 开发环境 如何打开ModelArts开发环境的Terminal功能? 是否支持apt-get?至如何对OBS的文件重命名?章节 训练作业 训练作业常用文件路径是什么?至训练作业如何调用shell脚本,是否可以执行.sh文件?章节 2019-10-17 新增章节: Caffe模型转换不成功 2019-08-23 新增如下章节: 训练模型时引用依赖包,如何创建训练作业? 支持哪些型号的Ascend芯片? 2019-06-30 新增如下章节: 自动学习为什么训练失败? 运行训练代码,出现dead kernel,并导致实例崩溃 出现“save error”错误, 可以运行代码,但是无法保存 是否支持本地安装MoXing? Notebook无法执行代码,如何处理? 2019-05-30 新增如下章节: 使用pip install时出现“没有空间”的错误 如何上传本地文件至Notebook? upload后,数据将上传到哪里? 2019-05-09 新增如下章节: 如何用ModelArts训练基于结构化数据的模型? 是否支持Keras引擎? 自动学习训练后的模型是否可以下载? 2019-04-17 新增如下章节: Notebook(新版) 训练作业 2019-01-30 第一次正式发布。
  • 配置了合理的服务部署超时时间,服务还是部署失败,无法启动 服务部署成功的标志是模型启动完成,如果没有配置健康检查,就无法检测到模型是否真实的启动。 在自定义镜像健康检查接口中,用户可以实现实际业务是否成功的检测。在创建AI应用时配置健康检查延迟时间,保证容器服务的初始化。 因此,推荐在创建AI应用时配置健康检查,并设置合理的延迟检测时间, 实现实际业务的是否成功的检测,确保服务部署成功。 父主题: 在线服务
  • 如何查看PyCharm ToolKit的错误日志 PyCharm ToolKit的错误日志记录在PyCharm的“idea.log”中,以Windows为例,该文件的路径在“C:\Users\xxx\.IdeaIC2019.2\system\log\idea.log”。 在日志中搜索“modelarts”,可以查看所有和PyCharm ToolKit相关的日志。 父主题: PyCharm Toolkit使用
共100000条