云服务器内容精选

  • 场景6 作业投递后运行失败,日志显示File name too long。 图12 运行出错的应用日志 排查思路 检查输入文件的路径单级名称长度是否超过255个字符。若单级名称长度未超过255个字符请联系技术支持。 解决方案 单级目录名称长度超过255个字符。 不使用SFS或者EVS加速。 若必须进行IO加速,则更改输入文件的路径为单级目录名称不超过255字符的路径。 若单级名称长度未超过255个字符请联系技术支持。
  • 场景7 同时复制多个文件,日志中显示cp: will not create hard link相关错误信息 图13 输入输出参数信息 图14 应用信息 图15 失败日志信息 排查思路 检查作业是否存在文件或目录类型的输入参数,并且未开启并发,同时改输入参数还填入了多个值,并且路径存在包含关系,如上图所示。 假定镜像命令为cp -rf ${input} ${output},变量替换后实际执行命令为cp -rf /test/sub /test /output,此时会触发cp: will not create hard link的错误。若不符合上述场景,请联系技术支持。 解决方案 首先排查业务场景是否需要涉及并发,若涉及,请前往应用详情页面开启并发选项即可,则不会出现本问题场景。 图16 开启并发 若不涉及并发,则优先排查镜像启动命令设置是否合理、是否确实需要复制路径存在包含关系的多个文件或目录。若不存在相关场景,根据实际业务需求,修改镜像启动命令即可。 若确实存在路径需要包含多个文件或目录,可参考如下方案解决。 以下图为例,首先调整应用的输入参数为input-a和input-b,分别表示两个路径存在包含关系的目录(/test/sub和/test )。 然后修改应用的镜像启动命令如下即可。 cp -rf ${input-a} ${output}; cp -rf ${input-b} ${output}; # 变量替换后实际执行命令会是 cp -rf /test/sub /output; cp -rf /test /output;
  • 场景5 并发投递多个作业后,部分作业运行失败,日志中显示IO读写相关错误。 图8 运行出错的应用日志 排查思路 检查同一时刻投递作业的输出路径是否存在重复。若存在重复,则很有可能是并发写入同一个文件导致的异常,若不存在请联系服务技术支持解决。 解决方案 平台提供了作业级输出路径,流程级输出路径,子任务级输出路径用于做不同层级的文件隔离。如下图所示,如果三者填写的路径相同,请修改输出路径后重试,如果填写的不同,请联系服务技术支持解决。当三者均不填写时,平台会自动生成随机路径。 图9 作业级输出路径 图10 流程级输出路径 图11 子任务级输出路径
  • 场景2 作业投递后处于运行中,但是无日志打印,也没有任何符合预期的输出文件生成。 排查思路 首先需要用户自行确认一下投递的作业是否会在控制台打印日志,如果是有重定向日志输出到具体文件的话,此处无日志为正常现象。 子任务的事件中,确认作业子任务的实例是否有正常创建。 图2 子任务的事件 查看实例的事件,查看实例是否有正常创建。 图3 实例的事件 解决方法 若子任务未正常创建,请联系服务技术支持解决。 若子任务正常创建,但是实例未正常创建,可以通过事件信息分析,常见有以下问题场景和对应解决方案。 0/4 nodes are available: XXX Insufficient cpu 或者 XXX Insufficient memory。该场景表示当前集群中无充足的计算资源,可以根据实际需要提前结束掉其他作业或notebook来释放资源,也可以进入系统资源页面购买新节点。 0/4 nodes are available: XXX node(s) didn't match node selector。该场景表示当前集群中无计算资源满足标签要求,用户可以进入系统资源页面,选择节点,通过标签管理给节点添加标签。 其他场景可以联系服务技术支持解决。
  • 场景1 作业投递后处于运行中,运行过程正常,但是最后超时失败。 排查思路 判断是否是作业超时。 单击“状态”右侧的失败图标,查看失败原因,若为Graph timeOut for executin xxx,则可以确认为作业超时失败。 解决方法 根据实际业务需要,在“创建作业”阶段,设置合适的超时时间,默认设置的超时时间为24小时(1440分钟),最大可设置为144000分钟,即作业运行至多100天。 图1 作业设置
  • 前提条件 用户已经将运行作业所需的程序包和数据文件上传至OBS系统或HDFS中。 本章节示例中使用的jar样例程序为“{集群客户端安装目录}/Spark2x/spark/examples/jars/spark-examples_*.jar”(部分版本集群中Spark2x文件夹名称为Spark,请以实际为准)。 可登录客户端节点执行如下命令,将待运行的jar包样例上传至HDFS中,请参考使用HDFS客户端。 例如上传至HDFS的“/tmp”中: hdfs dfs -put {客户端安装目录}/Spark2x/spark/examples/jars/spark-examples_*.jar /tmp
  • 命令示例 获取task列表 health nextflow get task -j "7991e0b4-bffe-4166-ac2e-45a261592dcc" { "tasks": [ { "task_id": "1", "process": "readfile", "hash": "f2/a0f16c", "status": "RUNNING", "container": "swr.xxx/eihealth-0659ea54-5ae6-4e9d-b014-a2b041a26f62/admet:2.0.0.1659942728536", "pod_name": "nf-f2a0f16c66bbe8e28824e8ccabbddd25", "submit": "2023-03-09T08:50:37Z" } ], "count": 1 } 获取task详情 health nextflow get task 1 -j "7991e0b4-bffe-4166-ac2e-45a261592dcc" { "id": "1", "command": "\n echo /test;sleep 1000;echo \"end /test\";\n ", "status": "RUNNING", "exit": 2147483647, "work_dir": "/nextflow/__nextflow_work__/e6dcd289-dadb-48d9-b53b-e0c6c256932e/mb79e5e6-1b14-41b4-ac3b-e8fb0122d64d/f2/a0f16c66bbe8e28824e8ccabbddd25", "module": [], "container": "swr.xxx/eihealth-0659ea54-5ae6-4e9d-b014-a2b041a26f62/admet:2.0.0.1659942728536", "attempt": 1, "execution_time": { "submit": "2023-03-09T08:50:37Z", "start": "2023-03-09T08:50:40Z" }, "resource_requested": { "container": "swr.xxx/eihealth-0659ea54-5ae6-4e9d-b014-a2b041a26f62/admet:2.0.0.1659942728536", "cpus": 1 }, "resource_usage": {} } 获取task日志 health nextflow get task 1 -j "7991e0b4-bffe-4166-ac2e-45a261592dcc" -t logs { "count": 1, "logs": [ "2023-03-09T08:50:44Z /test\n" ] }
  • 命令结构 health get job ID [flags] 表1 参数说明 参数 简写 是否必选 说明 ID 无 否 不选此参数时,列出当前所在项目的所有作业信息。 指定job-id时,列出具体作业的信息。可以同时指定多个job-id。 不带--detail参数,以yaml格式展示作业基本信息。 带--detail参数,以json格式展示作业基本信息。 --detail -d 否 配合ID使用,返回作业的详细信息。 --sample -s 否 获取作业模板,模板为yaml格式。 --limit -l 否 代表当次请求获取的最大查询条数(默认为10)。 --offset -o 否 偏移量,从第几条数据开始查询,默认为0。 --event -e 否 获取作业事件或者作业某一task事件,单独使用表示获取作业事件;与--task一起使用表示获取某一个task事件,并同时输出task实例列表。 --log -g 否 本地存放task日志的路径,必须与--task一起使用以获取作业某一task的日志。 --task -a 否 task名称。如果是并发的task,那么默认获取索引号为0的task实例,如果要查看别的实例,格式: --task task名称;实例索引,如--task task-1;1。 --finish-from-time -x 否 查询任务完成起始时间。例如,2006-01-02 15:04:05。 --finish-to-time -y 否 查询任务完成结束时间。例如,2006-01-02 15:04:05。 --create-from-time -c 否 询任务创建起始时间,例子:--create-from-time="2006-01-02 15:04:05"。 --create-to-time -m 否 询任务创建结束时间,例子:--create-to-time="2006-01-02 15:04:05"。 --labels -k 否 作业标签列表。以","分隔,如:"a,b"。 --status -q 否 作业状态(用于获取作业列表),取值:Succeeded、Running、Pending、Failed、Cancelling、Cancelled、Unknown。 --workflow-name -t 否 流程名。 --user-name -u 否 用户名。 --job-name -j 否 任务名。
  • 命令示例 本节以Windows为例介绍eihealth-toolkit的使用过程,Linux和macOS环境使用方法基本相同,可参考。 使用health get job -s命令获取模板,详细的模板介绍和使用请参见获取作业模板。 获取作业详情,以模板方式展示。 health get job 000c6057-cc6c-11ed-bbec-fa163ef30f89 job: id: 000c6057-cc6c-11ed-bbec-fa163ef30f89 name: job-7402 description: "" priority: 0 timeout: 1440 output_dir: /job-7402-de91a3e0-076c-4327-a41c-8e88c7aec6ae workflow_id: f1af14bb-cc69-11ed-bbec-fa163ef30f89 io_acc_id: "" node_labels: [] tasks: - task_name: task-1-test-echo inputs: [] resources: cpu: 0.1C memory: 0.1G gpu: "0" tool_type: workflow tool_id: f1af14bb-cc69-11ed-bbec-fa163ef30f89 labels: [] 获取作业详情,以json方式展示。 health get job f17a3542-3f7c-11eb-868a-fa163e3ddba1 --detail { "jobs": [{ "id": "2", "name": "zx-1030-mkdir", "description": "测试文件创建", "priority": 0, "timeout": 1440, "output_dir": "", "status": "SUCCEEDED", "create_time": "2021-01-20T03:38:14Z", "finish_time": "2021-01-20T03:43:23Z", "tool_info": { "tool_id": "", "tool_name": "", "tool_version": "", "tool_type": "" }, "tasks": [{ "task_name": "task0", "display_name": "", "output_dir": "", "whole_output_dir": "", "resources": { "cpu": "0.1C", "memory": "0.1G", "gpu_type": "", "gpu": "0" }, "inputs": [{ "name": "in-dir", "values": [ "ei_eihealth_x00356764_02:/zx-1030/" ] }, { "name": "in-str", "values": [ "mkdir1030" ] } ], "app_info": { "app_id": "2", "app_name": "zx-1030-mkdir", "app_version": "1.0.0", "app_src_project_name": "", "app_labels": [], "app_summary": "", "app_description": "", "app_image": "ei_eihealth_x00356764_02/modelarts-base-cpu-py3:custom-2.0.2", "app_commands": [ "mkdir ${in-dir}${in-str}" ], "app_input_parameters": [{ "name": "in-dir", "pattern": "", "type": "DIRECTORY", "required": true, "description": "" }, { "name": "in-str", "pattern": "", "type": "STRING", "required": true, "description": "" } ], "app_output_parameters": [] } }], "task_runtime_info": [{ "task_name": "task0", "status": "SUCCEEDED", "create_time": "2021-01-20 11:38:22", "finish_time": "2021-01-20 11:43:22", "run_time": "5m0s" }], "dag": { "task0": {} }, "io_acc_expected_usage": 10, "io_acc_info": { "id": "35673038-d57b-4dab-942a-72cf3e11e7df", "type": "IO_PERFORMANCE_BANDWIDTH", "space": 500, "free_space": 500.0 } }], "count": 1 } 获取作业列表。 health get job #不带任何参数默认获取100条 job_id job_name tool_name tool_version tool_type status user_name create_time finish_time labels 4b682e15-ab92-11ee-a057-fa163ef319da cli-demo-job cp-test 2.0.0 workflow PENDING wwx-test-admin 2024-01-05 14:18:51 -- e7e55c6e-aaf6-11ee-a057-fa163ef319da cli-demo-job-import cli-demo-workflow 4.0.0 workflow FAILED wwx-test-admin 2024-01-04 19:46:32 2024-01-04 19:47:50 aee9e91a-aaf6-11ee-a057-fa163ef319da job-6685 cli-demo-workflow 4.0.0 workflow FAILED wwx-test-admin 2024-01-04 19:44:56 2024-01-04 19:45:50 58a8f13b-aaf3-11ee-a057-fa163ef319da job cp-test 2.0.0 workflow FAILED wwx-test-admin 2024-01-04 19:21:03 2024-01-04 19:23:54 35ff73b3-aaf3-11ee-a057-fa163ef319da job cp-test 2.0.0 workflow SUCCEEDED wwx-test-admin 2024-01-04 19:20:05 2024-01-04 19:24:52 24b72eee-aaf3-11ee-a057-fa163ef319da job cp-test 2.0.0 workflow SUCCEEDED wwx-test-admin 2024-01-04 19:19:36 2024-01-04 19:25:10 4ccef1fb-aaf2-11ee-a057-fa163ef319da job cp-test 2.0.0 workflow SUCCEEDED wwx-test-admin 2024-01-04 19:13:34 2024-01-04 19:17:34 health get job -j cli-demo-job job_id job_name tool_name tool_version tool_type status user_name create_time finish_time labels 70f1baa8-ab96-11ee-a057-fa163ef319da cli-demo-job cp-test 2.0.0 workflow SUCCEEDED wwx-test-admin 2024-01-05 14:48:32 2024-01-05 14:55:13 6c6098f0-ab96-11ee-a057-fa163ef319da cli-demo-job cp-test 2.0.0 workflow SUCCEEDED wwx-test-admin 2024-01-05 14:48:24 2024-01-05 14:54:25 health get job -l 3 同 health get job -l 3 -o 0 #列出当前project的job的基本信息 #表示取3条数据,也就是取1-3 条数据 health get job -o 10 同 health get job -l 100 -o 10 #列出当前project的job的基本信息 #表示取100条数据,也就是取11-110 100 条数据 health get job -l 10 -o 3 #列出当前project的job的基本信息 #表示跳过3条数据,从第4条数据开始取,取10条数据,也就是取4-13 10条数据 获取作业事件。 health get job 550e8400-e29b-41d4-a716-446655440000 --event ------------------------------------------------------------------------------------------------------------------------ 成功关联执行器 2024-01-05 14:18:51 ------------------------------------------------------------------------------------------------------------------------ 执行 create, 共计 1 个子任务 2024-01-05 14:18:51 ------------------------------------------------------------------------------------------------------------------------ 执行 create, 共计 1 个子任务 2024-01-05 14:18:51 ------------------------------------------------------------------------------------------------------------------------ 创建k8s Job对象 task-3-two-cp-0-bd5e1f7dac10005f 成功. 2024-01-05 14:18:51 ------------------------------------------------------------------------------------------------------------------------ 等待任务 task-3-two-cp-0-bd5e1f7dac10005f 执行完成 2024-01-05 14:18:56 ------------------------------------------------------------------------------------------------------------------------ 元素(task-3-two-cp-0)第1次重试执行(create),当前异常:Failed to wait the Job(task-3-two-cp-0-bd5e1f7dac10005f) has desiredReplicas: the pod list of job:task-3-two-cp-0-bd5e1f7dac10005f is empty . 2024-01-05 14:18:51 ------------------------------------------------------------------------------------------------------------------------ 创建k8s Job对象 task-2-cp-dir-0-bd5e1f7dac10005f 成功. 2024-01-05 14:18:56 ------------------------------------------------------------------------------------------------------------------------ 获取作业某一task事件。 health get job 550e8400-e29b-41d4-a716-446655440000 --event --task task-lmx-job-1 Task event list: Status Times Type Details First Report Time Last Report Time SuccessfulCreate 1 Normal Created pod: task-1-rename-0-1b840133ac100049-hkppv 2022-05-24 18:04:55 2022-05-24 18:04:55 JobIsComplete 1 Normal Pod exits with success, the job is complete 2022-05-24 18:07:09 2022-05-24 18:07:09 Task instances list: Name Status PodIP Node RestartCount Request/Limit(CPU) Request/Limit(Memory) CreateTime task-1-rename-0-1b840133ac100049-hkppv Succeeded 172.16.1.20 192.168.125.40 0 / / 2022-05-24T10:04:55Z 获取并发task的实例事件。 health get job c5b3d272-f398-11ec-845a-fa163ef3fac0 --task task-1-test-bingfasmial;1 --event Task event list: Status Times Type Details First Report Time Last Report Time SuccessfulCreate 1 Normal Created pod: task-1-test-bingfasmial-1-59620029ac100038-jkdpt 2022-06-24 16:37:20 2022-06-24 16:37:20 JobIsComplete 1 Normal Pod exits with success, the job is complete 2022-06-24 16:37:23 2022-06-24 16:37:23 Task instances list: Name PodIP Node RestartCount Request/Limit(CPU) Request/Limit(Memory) CreateTime task-1-test-bingfasmial-1-59620029ac100038-jkdpt 172.16.3.37 192.168.54.255 0 1/1 1G/1G 2022-06-24 16:37:20 获取作业某一task日志。 health get job 550e8400-e29b-41d4-a716-446655440000 --log ./test/demo.log --task task-xxx-job-1 download the log of task task-lmx-job-1 successfully! 获取作业列表。 health get job --status Failed --user-name ei_eihealth --create-from-time "2022-12-15 00:40:11" --create-to-time "2022-12-17 00:40:11" --finish-from-time "2022-12-14 17:05:09" --finish-to-time "2022-12-19 23:04:07" --labels "label1,lab_el-A" --job-name h-err-1 --workflow-name herr --limit 1 --offset 1 job_id job_name tool_name tool_version tool_type status user_name create_time finish_time labels 8a6078d9-c307-11ed-a824-fa163e504fdd job-4127-01 new-01 wewe workflow FAILED ei_eihealth_h00541446_01 2023-03-15 16:01:07 2023-03-15 16:02:51 label1,lab_el-A
  • DLI 作业类型 DLI 提供了三种作业类型: SQL作业:SQL作业为用户提供标准的SQL,兼容Spark SQL、Presto SQL(基于Presto),通过可视化界面API、JDBC、ODBC、Beeline等多种接入方式对云上异构数据源进行查询分析,兼容CSV、JSON、Parquet、Carbon、ORC等主流数据格式。 Flink作业:Flink作业是运行在公有云上的实时流式大数据分析服务作业,全托管的方式用户无需感知计算集群,只需聚焦于Stream SQL业务,即时执行作业,完全兼容Apache Flink API。 Spark作业:Spark作业可为用户提供全托管式的Spark计算服务。用户可通过可视化界面和RESTful API提交作业,支持提交Spark Core、DataSet、Streaming、MLlib、GraphX等Spark全栈作业。
  • 响应示例 状态码: 201 CREATED 创建自由能微扰作业成功。 { "id" : "baabcb56-5bb6-11eb-8a0d-fa163e3ddba1" } 创建自由能微扰作业成功,当前运行作业数已达配额限制,此作业会等待。 { "id" : "baabcb56-5bb6-11eb-8a0d-fa163e3ddba1", "limit_concurrency" : 50 }
  • 请求示例 创建自由能微扰作业,作业名称为demo-job,受体文件为project:/dir/file,配体分别为GLY:A:514和UNK1,路径图的中心配体为GLY:A:514,配体对分别为GLY:A:514和DrugBank:UNK1,预平衡步数为5000,平衡步数为50000,时间步长为0.002,lambda的个数为20。 https://{endpoint}/v1/{project_id}/eihealth-projects/{eihealth_project_id}/drug-jobs/fep { "basic_info" : { "name" : "demo-job", "labels" : [ "labelA" ] }, "receptor" : { "source" : "PRIVATE", "url" : "project:/dir/file" }, "ligands" : [ { "name" : "GLY:A:514", "smiles" : "C1CCCCC1", "index" : 0, "file" : { "source" : "RAW", "format" : "PDB", "data" : "MODEL1.xxxxxxx.END" } }, { "name" : "UNK1", "smiles" : "c1ccccc1", "index" : 0, "file" : { "source" : "PRIVATE", "url" : "project:/dir/file" } } ], "graph" : { "center_id" : "GLY:A:514", "pairs" : [ { "ligand_ids" : [ "GLY:A:514", "DrugBank:UNK1" ] } ] }, "params" : { "num_pre_equilibrium_steps" : 50000, "num_equilibrium_steps" : 500000, "timestep_size" : 0.002, "num_lambda" : 20 } }
  • 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。Token认证就是在调用API的时候将Token加到请求消息头,从而通过身份认证,获得操作API的权限,获取Token接口响应消息头中X-Subject-Token的值即为Token。 最小长度:1 最大长度:32768 表3 请求Body参数 参数 是否必选 参数类型 描述 basic_info 是 CreateDrugJobBasicInfo object 创建药物作业基本信息。 receptor 是 ReceptorDrugFile object 受体文件。 ligands 是 Array of LigandPreviewDto objects 配体列表。 数组长度:2 - 101 graph 是 FepGraphDto object 路径图。 params 是 FepParamDto object FEP设置参数。 表4 CreateDrugJobBasicInfo 参数 是否必选 参数类型 描述 name 是 String 作业的名称,取值范围:[5,64],允许大小写字母、数字、空格、下划线(_)和中划线(-),只能以数字或字母开头。 最小长度:5 最大长度:64 labels 否 Array of strings 标签,取值范围[0,5],单个标签最大长度32字符,支持中文、字母、数字、空格、下划线和中划线,且不能以空格开头或者结尾。 最小长度:1 最大长度:32 数组长度:0 - 5 表5 ReceptorDrugFile 参数 是否必选 参数类型 描述 source 是 String 受体的数据源:外部网络数据(如RCSB在线数据库)、用户私有数据中心、承载租户公共数据(含样例/公共库)。 枚举值: EXTRANET PRIVATE PUBLIC RAW url 否 String 文件URL,当数据源为外部网络数据时为https地址;用户私有数据中心为项目路径、公共数据场景为obs地址。 最小长度:1 最大长度:2000 format 否 String 文件格式,仅支持PDB,仅数据源为RAW时提供。 最小长度:1 最大长度:6 data 否 String 文件原始数据,仅数据源为RAW时提供。 最小长度:0 最大长度:10000000 表6 LigandPreviewDto 参数 是否必选 参数类型 描述 index 是 Integer 配体索引(从0起编号)。 最小值:0 最大值:99 file 是 DrugFile object 配体文件。 name 是 String 配体名称,若无名称则自动命名,格式为UNK+索引(从1起编号)。 最小长度:1 最大长度:32 smiles 是 String 分子SMILES表达式。 最小长度:1 最大长度:512 表7 DrugFile 参数 是否必选 参数类型 描述 source 是 String 受体的数据源:外部网络数据(如RCSB在线数据库)、用户私有数据中心、承载租户公共数据(含样例/公共库)。 枚举值: EXTRANET PRIVATE PUBLIC RAW url 否 String 文件URL,当数据源为外部网络数据时为https地址;用户私有数据中心为项目路径、公共数据场景为obs地址。 最小长度:1 最大长度:2000 format 否 String 文件格式,支持PDB、SDF、MOL2、SMI,仅数据源为RAW时提供。 最小长度:1 最大长度:6 data 否 String 文件原始数据,仅数据源为RAW时提供。 最小长度:0 最大长度:10000000 表8 FepGraphDto 参数 是否必选 参数类型 描述 center_id 是 String 中心配体名称。 最小长度:1 最大长度:32 pairs 是 Array of SimilarityDto objects 配体对列表。 数组长度:1 - 100 表9 SimilarityDto 参数 是否必选 参数类型 描述 ligand_ids 是 Array of strings 配体对。 最小长度:1 最大长度:32 数组长度:2 - 2 表10 FepParamDto 参数 是否必选 参数类型 描述 pre_equilibrium_time 否 Float 预平衡时长,单位ps,范围为0-200,不包含0,默认为100ps。 最小值:0 最大值:200.0 equilibrium_time 否 Float 平衡时长,单位ns,范围为0-10,不包含0,默认为1ns。 最小值:0 最大值:10.0 num_pre_equilibrium_steps 否 Integer 预平衡步数,默认为50000。 最小值:1 最大值:200000 num_equilibrium_steps 否 Integer 平衡步数,默认为500000。 最小值:1 最大值:10000000 timestep_size 否 Float 时间步长,单位ps,取值范围:大于0,小于等于0.005。 最小值:0.001 最大值:0.005 缺省值:0.002 num_lambda 否 Integer lambda个数。 最小值:2 最大值:30 缺省值:20
  • URI POST /v1/{project_id}/eihealth-projects/{eihealth_project_id}/drug-jobs/fep 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,您可以从获取项目ID中获取。 最小长度:1 最大长度:128 eihealth_project_id 是 String 平台项目ID。 最小长度:1 最大长度:128
  • URI POST /v1/{project_id}/eihealth-projects/{eihealth_project_id}/auto-jobs/{auto_job_id}/stop 表1 路径参数 参数 是否必选 参数类型 描述 eihealth_project_id 是 String 平台项目ID,您可以在平台单击所需的项目名称,进入项目设置页面查看。 最小长度:1 最大长度:128 auto_job_id 是 String 自动作业id 最小长度:1 最大长度:128 project_id 是 String 华为云项目ID,您可以从获取项目ID中获取。 最小长度:1 最大长度:128