华为云用户手册

  • 查询批处理作业状态 功能介绍: 用于执行Spark作业。 相关链接: 关键SDK API:com.huaweicloud.sdk.dli.v1.DliClient#showSparkJobStatus(ShowSparkJobStatusRequest) 查询批处理作业状态 示例代码: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 private static void checkRunning(DliClient client, String jobId) throws DLI Exception { while (true) { ShowSparkJobStatusResponse resp; try { resp = client.showSparkJobStatus(new ShowSparkJobStatusRequest().withBatchId(jobId)); } catch (Exception e) { throw new DLIException("Failed to get job status by id: " + jobId, e); } String status = resp.getState(); logger.info(String.format("SparkJob id %s status: %s", jobId, status)); if ("success".equals(status)) { return; } if ("dead".equals(status)) { throw new DLIException("Run job failed"); } try { Thread.sleep(1000L); } catch (InterruptedException e) { throw new DLIException("Check job running interrupted."); } } }
  • 样例代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 private static final Logger logger = LoggerFactory.getLogger(SparkJobExample.class); public static void main(String[] args) { String yourAccessKey = System.getenv("HUAWEICLOUD_SDK_AK"); String yourSecretKey = System.getenv("HUAWEICLOUD_SDK_SK"); DliClient dliClient = DliClient.newBuilder() .withRegion(DliRegion.valueOf("RegionName")) .withCredential(new BasicCredentials() .withAk(yourAccessKey) .withSk(yourSecretKey) .withProjectId("YouProjectId")) .build(); try { // 步骤一:提交Spark作业到DLI执行。 String jobId = runSparkJob(dliClient, "YourQueueName"); // 步骤二:如果您想在当前线程等待作业执行结束,可循环检查状态,直到作业结束。 checkRunning(dliClient, jobId); // 步骤三:如果您想根据条件查询一个或多个特定作业,可执行以下方法。 // 此处仅作样例,除了jobId,您还可指定其它筛选条件。详见 https://console.huaweicloud.com/apiexplorer/#/openapi/DLI/doc?api=ListSparkJobs 表2 listSparkJob(dliClient, jobId); /* * 其它场景: * 1. 作业运行期间,如果您想取消作业,可调用接口取消批处理作业。具体操作请参考取消批处理作业。 * 关键SDK API:com.huaweicloud.sdk.dli.v1.DliClient#cancelSparkJob(CancelSparkJobRequest), * 注:作业状态为“已成功”或者“已失败”的批处理作业无法取消。 * 2. 如果您想根据jobId查询某个特定作业的详情,可执行以下方法。 * 关键SDK API:com.huaweicloud.sdk.dli.v1.DliClient#showSparkJob(ShowSparkJobRequest), * 详见ShowSparkJob */ } catch (DLIException e) { // 请根据业务实际情况处理异常信息,此处仅作样例。 } }
  • 操作前准备 获取AK/SK,项目ID及对应的Region信息。 管理控制台。 单击界面右上角的登录用户名,在下拉列表中单击“我的凭证”。 在左侧导航栏中选择“访问密钥”,单击“新增访问密钥”。根据提示输入对应信息,单击“确定”。 在弹出的提示页面单击“立即下载”。下载成功后,打开凭证文件,获取AK/SK信息。 左侧导航栏单击“API凭证”,在“项目列表”中获取“项目ID”即为project_id值,对应的“项目”即为region的值。
  • 操作前准备 获取AK/SK,项目ID及对应的Region信息。 管理控制台。 单击界面右上角的登录用户名,在下拉列表中单击“我的凭证”。 在左侧导航栏中选择“访问密钥”,单击“新增访问密钥”。根据提示输入对应信息,单击“确定”。 在弹出的提示页面单击“立即下载”。下载成功后,打开凭证文件,获取AK/SK信息。 左侧导航栏单击“API凭证”,在“项目列表”中获取“项目ID”即为project_id值,对应的“项目”即为region的值。
  • 创建Flink Jar作业 功能介绍: 用于创建Flink Jar作业。 相关链接: 关键SDK API:com.huaweicloud.sdk.dli.v1.DliClient#createFlinkJarJob(com.huaweicloud.sdk.dli.v1.model.CreateFlinkJarJobRequest) 新建Flink Jar作业 创建 Flink Jar作业。作业状态将变成 “草稿” 示例代码: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 private static Long createFlinkJarJob(DliClient client, String queueName) { // 请根据业务实际情况设置相应的参数,此处仅作样例。 CreateFlinkJarJobResponse resp = client.createFlinkJarJob(new CreateFlinkJarJobRequest() .withBody(new CreateFlinkJarJobRequestBody() .withName("demo_flink_jar") // 自定义作业名称。长度限制:1-57个字符。 .withDesc("YourJobDescription") // 自定义作业描述。长度限制:0-512个字符 .withQueueName(queueName) // 队列名称。长度限制:0-128个字符 .withFeature("basic") // 作业特性。表示用户作业使用的Flink镜像类型。basic:表示使用DLI提供的基础Flink镜像。 .withFlinkVersion("1.12") // Flink版本。当用户设置“feature”为“basic”时,该参数生效 .withObsBucket("YourObsBucketName") // OBS桶名。用于保存 日志 和 checkpoint数据 .withLogEnabled(true) // 开启作业的日志上传到用户的OBS功能 .withEntrypoint("obs://YourObsBucketName/your/flink/job.jar") // 用户已上传到OBS的jar包,用户自定义作业主类所在的jar包。 .withMainClass("YourClassFullName") // 作业入口类,比如:org.apache.flink.examples.JavaQueueStream .withEntrypointArgs("YourAppArg1 YourAppAgr2") // 作业入口类参数,多个参数之间空格分隔。如不需要,删除此行 .withDependencyJars(Arrays.asList("obs://YourObsBucketName/your/dependency1.jar", "obs://YourObsBucketName/your/dependency2.jar")) // 用户已上传到OBS的jar包,用户自定义作业的其他依赖包。如不需要,删除此行 .withDependencyJars(Arrays.asList("obs://YourObsBucketName/your/dependency1.csv", "obs://YourObsBucketName/your/dependency2.json")) // 用户已上传到OBS的文件,用户自定义作业的依赖文件。如不需要,删除此行 )); return resp.getJob().getJobId(); }
  • 查询作业状态 功能介绍: 查询Flink SQL作业状态。 相关链接: 关键SDK API: com.huaweicloud.sdk.dli.v1.DliClient#showFlinkJob(com.huaweicloud.sdk.dli.v1.model.ShowFlinkJobRequest) 查询Flink作业详情。 如果想在当前线程等待作业进入“运行中”状态,可循环检查状态,直到作业进入“运行中”状态。 示例代码: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 private static void checkRunning(DliClient client, Long jobId) throws DLIException { while (true) { ShowFlinkJobResponse resp; try { resp = client.showFlinkJob(new ShowFlinkJobRequest().withJobId(jobId)); } catch (Exception e) { throw new DLIException("Failed to get Flink jar job status by id: " + jobId, e); } String status = resp.getJobDetail().getStatus(); logger.info(String.format("FlinkJarJob id %s status: %s", jobId, status)); if ("job_running".equals(status)) { return; } if ("job_submit_fail".equals(status) || "job_running_exception".equals(status)) { throw new DLIException("Run Flink jar job failed: " + resp); } try { Thread.sleep(1000L); } catch (InterruptedException e) { throw new DLIException("Check job running interrupted."); } } }
  • 创建Flink SQL作业 功能介绍: 用于创建Flink SQL作业。 相关链接: 关键SDK API:com.huaweicloud.sdk.dli.v1.DliClient#createFlinkSqlJob(com.huaweicloud.sdk.dli.v1.model.CreateFlinkSqlJobRequest) 新建Flink SQL作业。 创建 Flink SQL作业,此时作业状态将变成 “草稿”。 示例代码: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 private static Long createFlinkSqlJob(DliClient client, String queueName) { // 请根据业务实际情况设置相应的参数,此处仅作样例。 CreateFlinkSqlJobResponse resp = client.createFlinkSqlJob(new CreateFlinkSqlJobRequest() .withBody(new CreateFlinkSqlJobRequestBody() .withName("demo_flink_sql") // 自定义作业名称。长度限制:1-57个字符 .withDesc("YourJobDescription") // 自定义作业描述。长度限制:0-512个字符 .withSqlBody("create table orders(\n" + " name string,\n" + " num INT\n" + ") with (\n" + " 'connector' = 'datagen',\n" + " 'rows-per-second' = '1', \n" + " 'fields.name.kind' = 'random', \n" + " 'fields.name.length' = '5' \n" + ");\n" + "\n" + "CREATE TABLE sink_table (\n" + " name string,\n" + " num INT\n" + ") WITH (\n" + " 'connector' = 'print'\n" + ");\n" + "\n" + "INSERT into sink_table SELECT * from orders;") // 自定义 Stream SQL语句,至少包含source, query, sink三个部分。长度限制:1024*1024个字符。 // 本SQL示例:自动生成随机source数据,并打印到控制台。 .withQueueName(queueName) // 队列名称。长度限制:0-128个字符 .withRunMode("exclusive_cluster") // 作业运行模式。只支持 exclusive_cluster 独享模式。 .withLogEnabled(true) // 开启作业的日志上传到用户的OBS功能 .withObsBucket("YourObsBucketName") // OBS桶名。用于保存 日志 和 checkpoint数据 .withJobType("flink_opensource_sql_job") // 作业类型。建议选择: "flink_opensource_sql_job" .withFlinkVersion("1.12") // 指定Flink版本 )); return resp.getJob().getJobId(); }
  • 查询作业状态 功能介绍: 查询Flink SQL作业状态。 相关链接: 关键SDK API: com.huaweicloud.sdk.dli.v1.DliClient#showFlinkJob(com.huaweicloud.sdk.dli.v1.model.ShowFlinkJobRequest)} 查询Flink作业详情 如果想在当前线程等待作业进入“运行中”状态,可循环检查状态,直到作业进入“运行中”状态。 示例代码: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 private static void checkRunning(DliClient client, Long jobId) throws DLIException { while (true) { ShowFlinkJobResponse resp; try { resp = client.showFlinkJob(new ShowFlinkJobRequest().withJobId(jobId)); } catch (Exception e) { throw new DLIException("Failed to get Flink sql job status by id: " + jobId, e); } String status = resp.getJobDetail().getStatus(); logger.info(String.format("FlinkSqlJob id %s status: %s", jobId, status)); if ("job_running".equals(status)) { return; } if ("job_submit_fail".equals(status) || "job_running_exception".equals(status)) { throw new DLIException("Run Flink sql job failed: " + resp); } try { Thread.sleep(1000L); } catch (InterruptedException e) { throw new DLIException("Check job running interrupted."); } } }
  • 操作前准备 获取AK/SK,项目ID及对应的Region信息。 管理控制台。 单击界面右上角的登录用户名,在下拉列表中单击“我的凭证”。 在左侧导航栏中选择“访问密钥”,单击“新增访问密钥”。根据提示输入对应信息,单击“确定”。 在弹出的提示页面单击“立即下载”。下载成功后,打开凭证文件,获取AK/SK信息。 左侧导航栏单击“API凭证”,在“项目列表”中获取“项目ID”即为project_id值,对应的“项目”即为region的值。
  • 导出数据 DLI提供导出数据的接口。您可以使用该接口将DLI表中的数据导出到OBS中。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 def export_data(dli_client, db_name, tbl_name, queue_name): try: job_id, status = dli_client.export_table(tbl_name, db_name, 'obs://bucket/obj', queue_name=queue_name) except DliException as e: print(e) return print(job_id) print(status) 在提交导出作业前,可选设置数据格式、压缩类型、导出模式等,导出格式只支持csv格式。 当OBS桶目录下有文件夹和文件同名时,加载数据会优先指向该路径下的文件而非文件夹。建议创建OBS对象时,在同一级中不要出现同名的文件和文件夹。
  • 查询所有作业 DLI提供查询所有作业的接口。您可以使用该接口执行查询当前工程下的所有作业的信息并获取查询结果。示例代码如下: 1 2 3 4 5 6 7 8 def list_all_sql_jobs(dli_client): try: sql_jobs = dli_client.list_sql_jobs() except DliException as e: print(e) return for sql_job in sql_jobs: print(sql_job) 该SDK接口不支持sql_pattern,即通过指定sql片段作为作业过滤条件进行查询。 如果需要则可以通过查询所有作业API接口指定该参数进行查询。
  • 查询SQL类型作业 您可以使用该接口查询当前工程下的所有SQL类型作业的信息并获取查询结果。示例代码如下: def list_sql_jobs(dli_client): try: sql_jobs = dli_client.list_sql_jobs() except DliException as e: print(e) return
  • 提交作业 DLI提供查询作业的接口。您可以使用该接口执行查询并获取查询结果。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 def run_sql(dli_client, db_name, queue_name): # execute SQL try: sql_job = dli_client.execute_sql('select * from tbl_dli_for_test', db_name, queue_name=queue_name) result_set = sql_job.get_result(queue_name=queue_name) except DliException as e: print(e) return if result_set.row_count == 0: return for row in result_set: print(row) # export the query result to obs try: status = sql_job.export_result('obs://bucket/obj', queue_name=queue_name) except DliException as e: print(e) return print(status)
  • 取消作业 DLI提供取消作业的接口。您可以使用该接口取消已经提交的作业,若作业已经执行结束或失败则无法取消。示例代码如下: 1 2 3 4 5 6 def cancel_sql(dli_client, job_id): try: dli_client.cancel_sql(job_id) except DliException as e: print(e) return
  • 导入数据 DLI提供导入数据的接口。您可以使用该接口将存储在OBS中的数据导入到已创建的DLI表中。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 def import_data(dli_client, db_name, tbl_name, queue_name): options = { "with_column_header": True, "delimiter": ",", "quote_char": "\"", "escape_char": "\\", "date_format": "yyyy/MM/dd", "timestamp_format": "yyyy/MM/dd hh:mm:ss" } try: job_id, status = \ dli_client.import_table(tbl_name, db_name, 'obs://bucket/obj/data.csv', 'csv', queue_name=queue_name, options=options) except DliException as e: print(e) return print(job_id) print(status) 在提交导入作业前,可选择通过data_type参数设置导入数据的类型,例如将data_type设置为csv。csv数据的具体格式通可过options参数设置,例如:csv的分隔符,转义符等。 当OBS桶目录下有文件夹和文件同名时,加载数据会优先指向该路径下的文件而非文件夹。建议创建OBS对象时,在同一级中不要出现同名的文件和文件夹。
  • 描述表信息 您可以使用该接口获取表的元数据描述信息。示例代码如下: def get_table_schema(dli_client, db_name, tbl_name): try: table_info = dli_client.get_table_schema(db_name, tbl_name) print(table_info) except DliException as e: print(e) return
  • 创建OBS表 DLI提供创建OBS表的接口。您可以使用该接口创建数据存储在OBS的表。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 def create_obs_tbl(dli_client, db_name, tbl_name): cols = [ Column('col_1', 'string'), Column('col_2', 'string'), Column('col_3', 'smallint'), Column('col_4', 'int'), Column('col_5', 'bigint'), Column('col_6', 'double'), Column('col_7', 'decimal(10,0)'), Column('col_8', 'boolean'), Column('col_9', 'date'), Column('col_10', 'timestamp') ] tbl_schema = TableSchema(tbl_name, cols) try: table = dli_client.create_obs_table(db_name, tbl_schema, 'obs://bucket/obj', 'csv') except DliException as e: print(e) return print(table) 创建OBS表需要指定OBS路径,且该路径需要提前创建。 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 删除表 DLI提供删除表的接口。您可以使用该接口删除数据库下的所有表。示例代码如下: 1 2 3 4 5 6 7 8 def delete_tbls(dli_client, db_name): try: tbls = dli_client.list_tables(db_name) for tbl in tbls: dli_client.delete_table(db_name, tbl.name) except DliException as e: print(e) return 表删除后,将不可恢复,请谨慎操作。 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 查询所有表 DLI提供查询表的接口。您可以使用该接口查询数据库下的所有表。示例代码如下: 1 2 3 4 5 6 7 8 9 def list_all_tbls(dli_client, db_name): try: tbls = dli_client.list_tables(db_name, with_detail=True) except DliException as e: print(e) return for tbl in tbls: print(tbl.name) 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 创建DLI表 DLI提供创建DLI表的接口。您可以使用该接口创建数据存储在DLI内部的表。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 def create_dli_tbl(dli_client, db_name, tbl_name): cols = [ Column('col_1', 'string'), Column('col_2', 'string'), Column('col_3', 'smallint'), Column('col_4', 'int'), Column('col_5', 'bigint'), Column('col_6', 'double'), Column('col_7', 'decimal(10,0)'), Column('col_8', 'boolean'), Column('col_9', 'date'), Column('col_10', 'timestamp') ] sort_cols = ['col_1'] tbl_schema = TableSchema(tbl_name, cols, sort_cols) try: table = dli_client.create_dli_table(db_name, tbl_schema) except DliException as e: print(e) return print(table) 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 查询所有数据库 DLI提供查询数据库列表接口。您可以使用该接口查询当前已创建的数据库列表。示例代码如下: 1 2 3 4 5 6 7 8 9 def list_all_dbs(dli_client): try: dbs = dli_client.list_databases() except DliException as e: print(e) return for db in dbs: print(db) 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 创建数据库 DLI提供创建数据库的接口。您可以使用该接口创建数据库,示例代码如下: 1 2 3 4 5 6 7 8 def create_db(dli_client): try: db = dli_client.create_database('db_for_test') except DliException as e: print(e) return print(db) “default”为内置数据库,不能创建名为“default”的数据库。 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 删除数据库 DLI提供删除数据库的接口。您可以使用该接口删除数据库。示例代码如下: 1 2 3 4 5 6 def delete_db(dli_client, db_name): try: dli_client.delete_database(db_name) except DliException as e: print(e) return 含表的数据库不能直接删除,请先删除数据库的表再删除数据库。 数据库删除后,将不可恢复,请谨慎操作。 完整样例代码和依赖包说明请参考:Python SDK概述。
  • 查询表的分区信息(包含分区的创建和修改时间) DLI提供查询表分区信息的接口。您可以使用该接口查询数据库下表的分区信息(包括分区的创建和修改时间)。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 private static void showPartitionsInfo(DLIClient client) throws DLIException { String databaseName = "databasename"; String tableName = "tablename"; //调用DLIClient对象的showPartitions方法查询数据库下表的分区信息(包括分区的创建和修改时间) PartitionResult partitionResult = client.showPartitions(databaseName, tableName); PartitionListInfo partitonInfos = partitionResult.getPartitions(); //获取分区的创建和修改时间 Long createTime = partitonInfos.getPartitionInfos().get(0).getCreateTime().longValue(); Long lastAccessTime = partitonInfos.getPartitionInfos().get(0).getLastAccessTime().longValue(); System.out.println("createTime:"+createTime+"\nlastAccessTime:"+lastAccessTime); }
  • 删除数据库 DLI提供删除数据库的接口。您可以使用该接口删除数据库。示例代码如下: 1 2 3 4 5 6 7 8 //调用Database对象的deleteDatabase接口删除数据库, //其中Database对象通过调用对象DLIClient的getDatabase(String databaseName)接口获得. private static void deletedatabase(Database database) throws DLIException { String dbName = "databasename"; database=client.getDatabase(dbName); database.deleteDatabase(); System.out.println("delete db " + dbName); } 含表的数据库不能直接删除,请先删除数据库的表再删除数据库。 数据库删除后,将不可恢复,请谨慎操作。
  • 创建数据库 DLI提供创建数据库的接口。您可以使用该接口创建数据库,示例代码如下: 1 2 3 4 5 6 7 private static Database createDatabase(DLIClient client) throws DLIException { //通过调用DLIClient对象的createDatabase方法创建数据库 String dbName = "databasename"; Database database = client.createDatabase(dbName); System.out.println("create database:" + database); return database; } “default”为内置数据库,不能创建名为“default”的数据库。
  • 响应示例 { "is_success": "true", "message": "", "queues": [ { "queue_name": "test", "owner": "testuser", "description": "", "create_time": 1562221422671, "queue_type": "spark", "cu_count": 16, "charging_mode": 2, "resource_id": "26afb850-d3c9-42c1-81c0-583d1163e80f", "enterprise_project_id": "0", "cidr_in_vpc": "10.0.0.0/8", "cidr_in_subnet": "10.0.0.0/24", "cidr_in_mgntsubnet": "10.23.128.0/24", "resource_mode": 1, "platform": "x86_64", "is_restarting": "false", "labels": "multi_az=2", "resource_type": "vm", "cu_spec": 16 } ] }
  • 响应消息 表3 响应参数 参数名称 是否必选 参数类型 说明 is_success 否 Boolean 请求执行是否成功。“true”表示请求执行成功。 message 否 String 系统提示信息,执行成功时,信息可能为空。 queues 否 Array of Object 队列信息。具体请参考表4。 表4 queues参数 参数名称 是否必选 参数类型 说明 queue_id 否 Long 队列ID。 queue_name 否 String 队列名称。 description 否 String 队列描述信息。 owner 否 String 创建队列的用户。 create_time 否 Long 创建队列的时间。单位为“毫秒”的时间戳。 queue_type 否 String 队列的类型,。 sql general all 如果不指定,默认为“sql”。 engine 否 String 引擎类型。 支持配置spark引擎或hetuEngine引擎。 cu_count 否 Integer 与该队列绑定的计算单元数,即当前队列的CU数。 charging_mode 否 Integer 队列的收费模式。 0:系统默认default队列。按照扫描量计费。 1:表示按照CU时收费。 2:表示按照包年包月收费。 resource_id 否 String 队列的资源ID。 enterprise_project_id 否 String 企业项目ID。0”表示default,即默认的企业项目。关于如何设置企业项目请参考《企业管理用户指南》。 说明: 开通了企业管理服务的用户可设置该参数绑定指定的项目。 cidr_in_vpc 否 String 队列的虚拟私有云(VPC)的网段。例如:10.0.0.0/8~24,172.16.0.0/12~24,192.168.0.0/16~24。 cidr_in_mgntsubnet 否 String 管理子网的网段。 cidr_in_subnet 否 String 子网网段。 resource_mode 否 Integer 资源模式。 0:共享队列 1:专属队列 platform 否 String 队列计算资源的cpu架构。 x86_64 aarch64 is_restarting 否 Boolean 是否重启队列。默认值为“false”。 labels 否 String 创建队列的标签信息,目前包括队列是否跨AZ的标签信息的Json字符串。目前只支持值为“2”,即创建两个队列。 feature 否 String 队列的镜像类型。支持以下两种类型: basic:基础型 ai:AI增强型(仅SQL的x86_64专属队列支持选择) 默认值为“basic”。 说明: AI增强型即队列加载了AI镜像,该镜像在基础镜像的基础上集成了AI相关的算法包。 queue_resource_type 否 String 队列所属资源类型。 vm:ecf集群 container:容器化集群(k8s) cu_spec 否 Integer 队列的规格大小。对于包周期队列,表示包周期部分的CU值;对于按需队列,表示用户购买队列时的初始值。 cu_scale_out_limit 否 Integer 当前队列弹性扩缩容的CU值上限。 cu_scale_in_limit 否 Integer 当前队列弹性扩缩容的CU值下限。 elastic_resource_pool_name 是 String 弹性资源池名称。 support_spark_versions 否 Array[String] 队列支持的Spark版本。 default_spark_version 否 String 队列默认的Spark版本。 support_hetu_engine_versions 否 Array[String] 队列支持的HetuEngine版本。 default_hetu_engine_version 否 String 队列默认的HetuEngine版本。 support_flink_sql_versions 否 Array[String] 队列支持的Flink SQL版本。 default_flink_sql_version 否 String 队列默认的Flink SQL版本。 support_flink_jar_versions 否 Array[String] 队列支持的Flink JAR版本。 default_flink_jar_version 否 String 队列默认的Flink JAR版本。
  • URI URI格式: GET/v1.0/{project_id}/queues 参数说明 表1 URI参数 参数名称 是否必选 参数类型 说明 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 表2 query参数 参数名称 是否必选 参数类型 说明 queue_type 否 String 队列的类型,有如下三种类型: sql:查询SQL队列类型的队列。 general:查询通用队列类型的队列。 all:查询所有类型的队列。 如果不指定,默认为sql。 with-priv 否 Boolean 是否返回权限信息。 with-charge-info 否 Boolean 是否返回收费信息。 page-size 否 Integer 每页显示的最大结果行数,默认值Integer.MAX_VALUE(也即不分页)。 current-page 否 Integer 当前页码,默认为第一页。 order 否 String 指定队列排序方式。 默认为queue_name_asc(队列名称升序),支持queue_name_asc(队列名称升序)、queue_name_desc(队列名称降序)、cu_asc(CU数升序)、cu_desc(CU数降序)四种排序。 tags 否 String 查询根据标签进行过滤。
  • 入驻API中心服务商 进入API中心服务页面。 在左侧导航栏选择“服务商入驻”。 单击页面中间的“立即入驻”。 图2 入驻API中心服务商 也可以在API中心门户网站,单击页面右上角的“服务商入驻”,进入服务商入驻页面。 填写服务商信息。 图3 申请入驻API中心 如果您已入驻成为华为云云商店服务商,则系统会自动填充服务商信息,您不需要再次填写服务商信息,直接执行5即可。 最多支持输入2个电话和2个邮箱。 勾选“我已阅读并同意《华为云API中心服务商合作协议》和《华为云隐私政策声明》”,单击“立即提交”。 根据您是否需要使用API网关代理功能,选择对应的操作。 是:联系API中心运营人员,并告知其您需要使用API网关代理功能。 否:直接执行7。 如果入驻服务商时没有开通API网关代理功能,后续如果想要使用API网关代理,可以变更服务商信息,然后联系API中心运营人员开通此功能。 等待审核。5个工作日内完成审核。您可以登录API中心管理控制台,查看审核进展。 审核通过后,您登录API中心管理控制台,就可以看到API资产管理等菜单了。
共100000条