云服务器内容精选
-
注册Kafka实例 如果选择Kafka实例未注册,单击注册,跳转到注册Kafka实例页面。 注册Kafka实例相关参数说明。 参数名称 说明 样例 Kafka实例 dms实例名称。 Kafka-01 打通DMS网络 打通Kafka实例和LTS服务的网络,用户LTS服务通过该网络发送转储数据。 - 用户名 如果Kafka实例开启了sasl认证,需要输入sasl认证的用户名。 DMS 密码 如果Kafka实例开启了sasl认证,需要输入sasl认证的密码。 - 单击“确认”,完成注册Kafka实例。
-
操作步骤 登录云日志服务控制台,在左侧导航栏中选择“日志转储 ”。 在“日志转储”页面中,单击右上角“配置转储”。 在“配置转储”页面中,选择转储对象“DWS集群”,并配置各参数信息。 表1 配置转储参数说明 参数名称 说明 样例 是否开启转储 选择是否开启转储。 开启 转储对象 选择转储的云服务。 DWS集群 日志组名称 选择已创建的日志组。 - 企业项目 选择已创建的企业项目。 如果当前账号未开通企业项目则不显示该参数。 如果当前账号已开通企业项目,则存在以下情况: 当转储当前账号日志时,下拉框显示当前账号的全部企业项目。 当转储其他账号日志时,若委托账号未开通企业项目,则默认显示“default”。 当转储其他账号日志时,若委托账号已开通企业项目,则显示委托账号的全部企业项目。 default 日志流名称 选择已创建的日志流。 说明: 已配置过DWS集群转储的日志流不能重复配置。 - 集群名称 已创建的集群名称。 test 数据库名称 集群的数据库名称。有两种数据库,分别是“gaussdb”和“postgres”。默认集群数据库为“gaussdb”。 gaussdb 用户名 数据库的管理员用户名。 lts-test 密码 数据库的管理员密码。 - schema名称 数据库对象的集合名称。 - 表名 schema中的表名称。 - 字段映射 将内置字段以及日志中配置的结构化字段和类型,映射到数据库字段。 说明: 内置字段有13个,分别是hostIP、 hostId、hostName、pathFile、collectTime、clusterName、clusterId、 podName、containerName、regionName、projectId、logGroupName和logStreamName 当结构化字段类型和数据库表字段类型一致时,支持将日志的结构化字段转储至数据仓库服务GaussDB(DWS),否则转储无效。 可以通过结构化字段和表字段的下拉框,选择您需要转储的字段。 可以通过操作列下的删除操作,选择您需要转储的字段。 可以通过单击添加,选择您需要转储的字段。 hostIP 完成后单击“确定”。
-
如何转储云审计服务CTS的日志? 云审计CTS与LTS进行系统对接后,系统自动在云日志服务控制台创建的日志组和日志流,如果需要将CTS的日志转储至OBS中,您需要进行以下操作: 在云审计服务管理控制台,单击左侧导航栏中的“追踪器”。 单击追踪器“system”操作列的“配置”。 进入基本信息页面,单击下一步。 在“配置转储”页面,选择转储到OBS的相关信息和开启转储到LTS,单击下一步。 确认信息正确后,单击配置即可完成。 在云日志服务管理控制台,选择左侧导航栏中的“日志转储”,单击“配置转储”,完成将CTS日志转储至OBS的配置。 其中日志组名称选择“CTS”,日志流名称“system-trace”。 转储成功后在OBS控制台所选OBS桶中可以看到已转储的CTS日志。 父主题: 日志转储
-
方法2:配置定时任务 登录DataArts Studio服务控制台,确保已创建SQL实例。 选择实例,单击进入控制台。 在概览页签,单击工作空间下方的数据开发,进入数据开发详情页面。 在作业开发页面,单击新建作业,按照提示填写参数后,单击“确定”。详细操作请参考新建作业。 在已创建成功的作业页面,将DLI SQL拖动到空白区域。 在空白区域,单击DLI SQL图标,在DLI SQL页面,填写SQL语句“MSCK REPAIR TABLE table_name”,table_name为有分区表的表名称,数据库名称和队列名称选择用户配置转储DLI创建的数据库和队列。 更多DLI SQL属性信息请参考开发SQL脚本。 设置完成DLI SQL属性后,单击空白处,单击“调度配置”,设置定时操作时间,详细操作请参考调度作业。 设置完成后,先单击提交版本,然后单击,作业执行调度触发成功。
-
响应示例 状态码: 200 删除转储请求响应成功。 { "log_group_id" : "9a7e2183-2d6d-4732-9a9b-e897fd4e49e0", "log_group_name" : "lts-group-kafka", "log_streams" : [ { "log_stream_id" : "839dac89-35af-4db2-ab4a-a7dda0d0d3f8", "log_stream_name" : "lts-topic-kafka" } ], "log_transfer_id" : "ddced522-233a-4181-a5fc-7b458c819afc", "log_transfer_info" : { "log_create_time" : 1634802241847, "log_storage_format" : "JSON", "log_agency_transfer" : { "agency_domain_id" : "1d26cc8c86a840e28a4f8d0d078xxxxx", "agency_domain_name" : "paas_apm_z004xxxxx_xx", "agency_name" : "test20210325", "agency_project_id" : "2a473356cca5487f8373be891bfxxxxx", "be_agency_domain_id" : "1d26cc8c86a840e28a4f8d0d078xxxxx", "be_agency_project_id" : "2a473356cca5487f8373be891bfxxxxx" }, "log_transfer_detail" : { "obs_period" : 2, "obs_prefix_name" : "", "obs_period_unit" : "min", "obs_transfer_path" : "/0002/LogTanks/xxx/", "obs_bucket_name" : "0002", "obs_encrypted_enable" : false, "obs_dir_pre_fix_name" : "", "obs_time_zone" : "UTC+01:00", "obs_time_zone_id" : "Africa/Lagos", "dis_id" : "xxxxx", "dis_name" : "xxxxxx", "kafka_id" : "xxxxxx", "kafka_topic" : "xxxxx" }, "log_transfer_mode" : "cycle", "log_transfer_status" : "ENABLE", "log_transfer_type" : "OBS" } } 状态码: 400 BadRequest 非法请求 建议根据error_msg直接修改该请求。 { "error_code" : "LTS.0405", "error_msg" : "The log transfer does not existed" } 状态码: 500 表明服务端能被请求访问到,但是服务内部出错。 { "error_code" : "LTS.0010", "error_msg" : "The system encountered an internal error" }
-
响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 log_group_id String 日志组ID 最小长度:36 最大长度:36 log_group_name String 日志组名称 最小长度:1 最大长度:64 log_streams Array of log_streams objects 日志流集合 log_transfer_id String 日志转储ID 最小长度:36 最大长度:36 log_transfer_info log_transfer_info_RespBody object 日志转储信息 表5 log_streams 参数 参数类型 描述 log_stream_id String 日志流ID 最小长度:36 最大长度:36 log_stream_name String 日志流名称 最小长度:1 最大长度:64 表6 log_transfer_info_RespBody 参数 参数类型 描述 log_agency_transfer log_agency_transfer object 委托转储信息。若转储为委托转储,则会返回该参数 log_create_time Integer 日志转储创建时间 最小值:0 最大值:2147483647 log_storage_format String 日志转储格式。只支持"RAW", "JSON"。RAW是指原始日志格式,JSON是指JSON日志格式。OBS转储和DIS转储支持JSON和RAW,DMS转储仅支持RAW 枚举值: JSON RAW log_transfer_detail TransferDetail object 日志转储详细信息 log_transfer_mode String 日志转储方式。cycle是指周期性转储,realTime是指实时转储。OBS转储只支持"cycle",DIS转储和DMS转储只支持"realTime"。 枚举值: cycle realTime log_transfer_status String 日志转储状态,ENABLE是指日志转储开启状态,DISABLE是指日志转储关闭状态,EXCEPTION是指日志转储异常状态 枚举值: ENABLE DISABLE EXCEPTION log_transfer_type String 日志转储类型。OBS指OBS日志转储,DIS指DIS日志转储,DMS指DMS日志转储。 枚举值: OBS DIS DMS 表7 log_agency_transfer 参数 参数类型 描述 agency_domain_id String 委托方账号ID 最小长度:1 最大长度:128 agency_domain_name String 委托方账号名称 最小长度:1 最大长度:128 agency_name String 委托方配置的委托名称 最小长度:1 最大长度:128 agency_project_id String 委托方项目ID 最小长度:32 最大长度:32 be_agency_domain_id String 被委托方账号ID,实际配置转储的账号ID 最小长度:1 最大长度:128 be_agency_project_id String 被委托方项目ID,实际配置转储的账号的项目ID 最小长度:32 最大长度:32 表8 TransferDetail 参数 参数类型 描述 obs_period Integer OBS转储时间。当创建OBS转储时,必填此参数。与obs_period_unit组合,即"obs_period"+"obs_period_unit",必须是"2min", "5min", "30min", "1hour", "3hour", "6hour","12hour"。 枚举值: 1 2 3 5 6 12 30 obs_period_unit String OBS转储单位。当创建OBS转储时,必填此参数。与obs_period_unit组合,即"obs_period"+"obs_period_unit",必须是"2min", "5min", "30min", "1hour", "3hour", "6hour","12hour"。 枚举值: “min” “hour” obs_bucket_name String OBS日志桶名称。当创建OBS转储时,必填此参数。 最小长度:3 最大长度:63 最小长度:3 最大长度:63 obs_encrypted_id String OBS转储KMS秘钥ID。根据OBS转储日志桶是否加密判断,若OBS转储日志桶加密则必须填写该参数,若OBS转储日志桶则不需要此参数。 最小长度:36 最大长度:36 最小长度:36 最大长度:36 obs_dir_pre_fix_name String OBS转储自定义转储路径。当创建OBS转储时,根据需要选填此参数。 正则约束: ^(/)?([a-zA-Z0-9.-]+)(/[a-zA-Z0-9.-]+)*(/)?$ 最小长度:1 最大长度:64 最小长度:1 最大长度:64 obs_prefix_name String OBS转储日志文件前缀。当创建OBS转储时,根据需要选填此参数。 正则约束: ^[a-zA-Z0-9._-]*$ 最小长度:1 最大长度:64 最小长度:1 最大长度:64 obs_time_zone String OBS转储时区(https://support.huaweicloud.com/api-lts/lts_api_0111.html)。如果选择该参数,则必须选择obs_time_zone_id。 obs_time_zone_id String OBS转储时区ID(https://support.huaweicloud.com/api-lts/lts_api_0111.html)。参数选择参考OBS转储时区表。如果选择该参数,则必须选择obs_time_zone。 dis_id String DIS转储通道ID。当创建DIS转储时,必填此参数。 最小长度:1 最大长度:128 最小长度:1 最大长度:128 dis_name String DIS转储通道名称。当创建DIS转储时,必填此参数。 最小长度:1 最大长度:128 最小长度:1 最大长度:128 kafka_id String DMS转储kafka ID。当创建DMS转储时,必填此参数。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 最小长度:36 最大长度:36 kafka_topic String DMS转储kafka topic。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 最小长度:1 最大长度:128 obs_transfer_path String OBS转储路径,指OBS日志桶中的路径。 最小长度:0 最大长度:256 obs_eps_id String OBS企业项目ID。 最小长度:0 最大长度:128 obs_encrypted_enable Boolean OBS是否开启加密。 枚举值: true false tags Array of strings 若开启tag投递,该字段必须包含主机信息:hostIP、hostId、hostName、pathFile、collectTime; 公共字段有:logStreamName、regionName、logGroupName、projectId,为可选填; 开启转储标签:streamTag,可选填 状态码: 400 表9 响应Body参数 参数 参数类型 描述 error_code String 错误码。 最小长度:8 最大长度:8 error_msg String 调用失败响应信息描述。 状态码: 500 表10 响应Body参数 参数 参数类型 描述 error_code String 错误码。 最小长度:8 最大长度:8 error_msg String 调用失败响应信息描述。
-
URI DELETE /v2/{project_id}/transfers 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,账号ID,日志组ID、日志流ID,获取方式请参见:获取项目ID,获取账号ID,日志组ID、日志流ID 最小长度:32 最大长度:32 表2 Query参数 参数 是否必选 参数类型 描述 log_transfer_id 是 String 日志转储ID。获取ID有3种方式: 1. 调用查询日志转储接口,返回值有日志转储ID 2. 调用新增日志转储接口,返回值有日志转储ID 最小长度:36 最大长度:36
-
概述 主机和云服务的日志数据上报至云日志服务后,默认存储时间为30天,您在创建日志组时,可以对日志存储进行设置(1-365天)。超出存储时间的日志数据将会被自动删除,对于需要长期存储的日志数据(日志持久化),云日志服务提供转储功能,可以将日志转储至其他云服务中进行长期保存。 日志转储功能只能拷贝已有日志,不会删除日志。根据配置的存储时间可定时清理日志文件,不会影响转储后的日志。 当前LTS支持转储至以下云服务,根据您的业务场景进行日志转储。 转储至OBS 对象存储服务(Object Storage Service,OBS)提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。 转储至DIS 数据接入服务(Data Ingestion Service,简称DIS)提供日志长期存储能力和丰富的大数据分析能力。 转储至DMS DMS通过分布式消息服务API处理日志。 转储至DWS 数据仓库服务(Data Warehouse Service,简称DWS)是完全托管的企业级云上数据仓库服务,具备免运维、在线扩展、高效的多源数据加载能力,兼容PostgreSQL生态。助力企业经济高效地对海量数据进行在线分析,实现数据快速变现。 转储至DLI 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark、Apache Flink、openLooKeng(基于Apache Presto)生态,提供一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务。用户不需要管理任何服务器,即开即用。支持标准SQL/Spark SQL/Flink SQL,支持多种接入方式,并兼容主流数据格式。 当前LTS支持跨租户转储,可以通过创建委托将日志转储的能力共享给其他账号,让其他账号代为转储该账号下的日志数据。委托时需要对被委托账号赋予可以获取日志组和日志流的权限,例如LTS FullAccess。 父主题: 日志转储
-
响应参数 状态码为 201 时: 表5 响应Body参数 参数 参数类型 描述 instance_id String kafka ID 状态码为 400 时: 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码。 最小长度:8 最大长度:8 error_msg String 调用失败响应信息描述。 枚举值: Invalid projectId 状态码为 500 时: 表7 响应Body参数 参数 参数类型 描述 error_code String 错误码。 最小长度:8 最大长度:8 error_msg String 调用失败响应信息描述。
-
请求示例 注册DMS kafka实例 POST https://{endpoint}/v2/{project_id}/lts/dms/kafka-instance /v2/{project_id}/lts/dms/kafka-instance { "instance_id" : "3f4a92ff-7f65-489f-a36a-fadbaaxxxxx6", "kafka_name" : "kafka-wxxxxxt", "connect_info" : { "user_name" : "111", "pwd" : "2222" }}
-
响应示例 状态码为 201 时: 注册DmsKafka请求响应成功。 { "instance_id" : "3f4a92ff-7f65-489f-a36a-fadbaaxxxxx6" } 状态码为 400 时: BadRequest 非法请求建议根据error_msg直接修改该请求。 { "error_code" : "LTS.1719", "error_msg" : "kafka user or password wrong" } 状态码为 500 时: 表明服务端能被请求访问到,但是服务内部出错。 { "error_code" : "LTS.0010", "error_msg" : "The system encountered an internal error" }
-
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 从IAM服务获取的用户Token,获取方式请参见:获取用户Token 最小长度:1000 最大长度:2000 Content-Type 是 String 该字段填为:application/json;charset=UTF-8。 最小长度:30 最大长度:30 表3 请求Body参数 参数 是否必选 参数类型 描述 instance_id 是 String kafka ID 最小长度:1 最大长度:36 kafka_name 是 String kafka 名称 最小长度:1 最大长度:256 connect_info 是 connect_info object kafka连接信息。购买kafka时,SASL_SSL是否配置,如果有,则需要填写账号密码 表4 connect_info 参数 是否必选 参数类型 描述 user_name 否 String 账号 最小长度:1 最大长度:256 pwd 否 String 密码 最小长度:1 最大长度:256
更多精彩内容
CDN加速
GaussDB
文字转换成语音
免费的服务器
如何创建网站
域名网站购买
私有云桌面
云主机哪个好
域名怎么备案
手机云电脑
SSL证书申请
云点播服务器
免费OCR是什么
电脑云桌面
域名备案怎么弄
语音转文字
文字图片识别
云桌面是什么
网址安全检测
网站建设搭建
国外CDN加速
SSL免费证书申请
短信批量发送
图片OCR识别
云数据库MySQL
个人域名购买
录音转文字
扫描图片识别文字
OCR图片识别
行驶证识别
虚拟电话号码
电话呼叫中心软件
怎么制作一个网站
Email注册网站
华为VNC
图像文字识别
企业网站制作
个人网站搭建
华为云计算
免费租用云托管
云桌面云服务器
ocr文字识别免费版
HTTPS证书申请
图片文字识别转换
国外域名注册商
使用免费虚拟主机
云电脑主机多少钱
鲲鹏云手机
短信验证码平台
OCR图片文字识别
SSL证书是什么
申请企业邮箱步骤
免费的企业用邮箱
云免流搭建教程
域名价格