检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
eth_blocknumber 简介 返回区块链的最新区块号。该API所消耗的计算单元为15。 参数说明 此方法不接受任何参数。 返回值 十六进制编码的最新区块号。 请求样式 curl https://your-http-endpoint/v1/<API-KEY> \ -X POST
父区块的哈希。 nonce: 生成的工作量证明的哈希值。如果是一个处于待处理(Pending)状态的区块,则为空。 sha3Uncles: 区块中叔区块数据的 SHA3。 logsBloom: 区块日志的布隆过滤器。如果是一个处于待处理(Pending)状态的区块,则为空。 transactionsRoot:
eth_getUncleCountByBlockNumber 简介 返回与给定区块编号匹配的区块中叔区块的数量。该API所消耗的计算单元为17。 参数说明 参数 类型 说明 区块编号 String 想要查询的区块的十六进制的编号。 返回值 区块中叔区块的数量,以十六进制为编码。 请求样式
查询指定租户下的共享带宽类型列表 功能介绍 查询指定租户下的共享带宽类型列表 URI GET /v3/{project_id}/eip/share-bandwidth-types 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 功能说明:项目id
359705eb", "port_id" : "22d3576d-c042-4f3d-8c7c-1330a2724627", "mac" : "fa:16:3e:3a:22:66", "vtep" : null, "vni" : null
com/huaweicloud/huaweicloud-sdk-go-v3/services/elb/v3/model" region "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/elb/v3/region" ) func main()
com/huaweicloud/huaweicloud-sdk-go-v3/services/elb/v3/model" region "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/elb/v3/region" ) func main()
GeminiDB Influx经典部署模式实例 GeminiDB Redis经典部署模式实例 URI GET https://{Endpoint}/v3/{project_id}/configurations/{config_id}/applicable-instances 表1 路径参数 参数
一个Full node (Staking supported)类型的节点最大支持多少gRPC连接? 最大支持500个gRPC连接。 超过该数值后,新的gRPC连接的客户端侧会连接超时,并报"context deadline exceeded"错误。此时,您需要购买新的节点进行连接。
255。 请求示例 GET https://{Endpoint}/v3/054e292c9880d4992f02c0196d3ea468/instances/054e292c9880d4992f02c0196d3ein12/lb/access-control 响应示例 状态码: 200
参数类型 说明 databases Array of objects 列表中每个元素表示一个数据库。 详情请参见表3。 total_count Integer 数据库总数。 表3 databases元素结构说明 名称 参数类型 说明 name String 数据库名称。 readonly
Array of objects 参数解释: 列表中每个元素表示一个数据库账号。 详情请参见表3。 total_count Integer 参数解释: 数据库用户总数。 取值范围: 不涉及。 表3 users元素结构说明 名称 参数类型 说明 name String 参数解释: 账号名。
0", "instance_ids" : [ "14fc6c06d7e842829ee91d11c6b88b3ain01" ] } 响应消息 正常响应要素说明 表3 响应Body参数 名称 参数类型 说明 support_fast_restore_list Array of objects
查询指定时间点可恢复的表。 调用接口前,您需要了解API认证鉴权。 调用接口前,您需要了解请求Header参数说明。 URI URI格式 POST /v3/{project_id}/{database_name}/instances/history/tables 参数说明 表1 参数说明 名称
ap-southeast-1.myhuaweicloud.com/v3/0483b6b16e954cb88930a360d2c4e663/instances/e28979107ed04d3b8b2f1b819b8d2be3in03/hba-info 响应消息 正常响应要素说明 表2 要素说明
Spark2x Spark2x jar包冲突列表 Jar包名称 描述 处理方案 spark-core_2.1.1-*.jar Spark任务的核心jar包。 Spark可以直接使用开源同版本的spark包运行样例代码,但是不同版本的spark-core包在使用的时候可能互相序列化ID不一样,建议使用集群自带jar包。
Flink DataStream样例程序 Flink DataStream样例程序开发思路 Flink DataStream样例程序(Java) Flink DataStream样例程序(Scala) 父主题: 开发Flink应用
Flink Kafka样例程序 Flink Kafka样例程序开发思路 Flink Kafka样例程序(Java) Flink Kafka样例程序(Scala) 父主题: 开发Flink应用
Flink Join样例程序 Flink Join样例程序开发思路 Flink Join样例程序(Java) 父主题: 开发Flink应用
追加信息到HDFS指定文件 功能简介 追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 使用FileSystem实例的append方法获取追加写入的输出流。 使用该输出流将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com