云服务器内容精选
-
修改事件源 登录事件网格控制台。 在左侧导航栏选择“事件订阅”,进入“事件订阅”页面。 单击待修改事件源参数的订阅名称,进入订阅详情页。 单击已有事件源模块,弹出“事件源”对话框。 修改事件源配置参数。 当提供方为“云服务”时,设置如表1所示参数。 表1 云服务事件源参数说明 参数名称 说明 事件源 选择云服务事件源。 事件类型(可选) 选择事件网格预定义的事件类型。 过滤规则 输入事件过滤规则。 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。如果需要了解更多过滤规则的信息,请参考过滤规则参数说明和过滤规则示例。 图1 云服务事件源配置参数 当提供方为“自定义”时,设置如表2所示参数。 表2 自定义事件源参数说明 参数名称 说明 通道 在下拉列表中选择一个已创建的自定义事件通道,例如:channel。 事件源 输入或选择一个已关联自定义事件通道(即“通道配置”中选择的自定义通道,例如:channel)的自定义事件源。 过滤规则 输入事件过滤规则。 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。如果需要了解更多过滤规则的信息,请参考过滤规则参数说明和过滤规则示例。 图2 自定义事件源参数配置 单击“确定”。 单击“保存”,完成事件源的修改。
-
约束与限制 RocketMQ同步事件流当前仅支持同步普通消息和顺序消息。若您配置Topic的消息类型是其它类型时,则该消息类型的Topic消息将不会被同步。 “同步”场景的约束与限制: 源RocketMQ和目标RocketMQ仅支持DMS服务RocketMQ实例,实例版本需保持一致,目前支持版本为4.8.0、5.x。 目标RocketMQ实例和源RocketMQ的代理数量、代理规格、存储空间需保持一致。 目标RocketMQ和源RocketMQ实例的实例类型(如单机、集群架构)需保持一致。 “迁移”场景的约束与限制: “迁移”场景类型需开通白名单,使用前请提交工单申请。 源端RocketMQ需要支持集群信息查询命令、topic列表查询命令,否则会导致在线迁移失败。 目标RocketMQ仅支持DMS服务RocketMQ实例,目前支持版本为4.8.0、5.x;源端RocketMQ支持4.8.0、5.x版本的DMS服务RocketMQ,或支持兼容开源4.x、5.x版本的云厂商/自建RocketMQ。 目标RocketMQ实例和源RocketMQ的代理数量需保持一致,目标RocketMQ实例代理规格、队列数、存储空间需不低于源RocketMQ。
-
操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流>专业版事件流作业”,进入“专业版事件流作业”页面。 右上角单击“创建作业”,进入“基础配置”。 配置“基本配置”信息,以下内容将以非白名单账号举例介绍。 表1 作业基本配置参数说明 参数 说明 集群 选择已创建的集群,如未创建,请参见专业版事件流集群。 作业名称 请输入作业名称。 场景类型 可选“同步”或“迁移”。 同步:实现数据源之间的数据实时同步,支持正向和反向的长期单向数据同步。 迁移:适用于业务割接期数据的整体搬迁上云,只支持短期单向同步。 描述 请输入对本作业的描述。 单击“测试连通性”按钮确认源端、目标端实例连通性通过之后,单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图1 源数据和目标数据配置 表2 源数据和目标数据配置参数说明 参数 说明 配置类型 在同步场景下,源数据端为默认为“RocketMQ实例”。 在迁移场景下,源数据端为默认为“RocketMQ地址”。 目标数据端默认为“RocketMQ实例”。 说明: 配置类型根据实例类型变更。 实例别名 请输入实例别名。 用于标识源端和目标端实例,建议同一个源端或目标端实例只设置一个别名。 区域 请选择资源所在区域。 项目 请选择项目。 Rocketmq实例 请选择Rocketmq实例。 用户名 请输入用户名。 密钥 请输入密钥。 NameServer地址 仅在迁移场景下,源数据端需配置。 输入NameServer地址。 Broker地址 仅在迁移场景下,源数据端需配置。 输入Broker地址。 SSL 仅在迁移场景下,源数据端需配置。 是否开启SSL。 ACL访问控制 仅在迁移场景下,源数据端需配置。 是否开启ACL访问控制。 单击“下一步:高级配置”,进入“高级配置”页面。 图2 高级配置 表3 作业对象配置参数说明 参数 说明 Topic匹配类型 在同步场景下选择“正则匹配”或“精确匹配”。 在迁移场景下选择“正则匹配”或“输入”。 说明: 当选择“正则匹配”时需在下方输入“Topic正则”。示例:.* 表示匹配所有Topic,topic.* 表示匹配所有以topic为前缀的Topic。 当选择“精确匹配”时需选择“Topics”。 当选择“输入”时需输入“Topics”。 同步消费进度 请选择是否打开。 说明: 开启时表示将消息消费进度同步到目标Rocketmq。 启动偏移量 请选择为“最早”、“最新”或“自定义”。 压缩算法 请选择压缩算法为“none”、“lz4”、“zstd”或“zlib”。 单击“下一步:预检查”,进入“预检查”页面,完成后单击“完成配置”。 返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 表4 参数说明 参数名称 说明 Topic名称 创建RocketMQ实例时的Topic。 队列数 创建Topic时设置的队列个数。 待同步数 当前Topic队列数中未同步的消息数量。
-
云服务事件源列表 事件网格支持的云服务事件源列表如下: 表1 云服务事件源 云应用引擎 CAE 数据库和应用迁移 UGO Classroom 内容审核 Moderation 虚拟私有云 VPC 代码检查 CodeCheck 云数据库 GaussDB NoSQL GaussDB API网关 APIG 数据仓库服务 DWS 部署 CloudDeploy 统一身份认证 IAM 事件网格 EG 华为云 U CS 弹性文件服务 SFS CloudIDE 人脸识别 FRS 微服务引擎 CSE 云专线 DC 数据可视化 DLV NAT网关 NAT 云桌面 Workspace 设备接入服务 IoTDA 分布式消息服务 DMS 知识图谱 KG IoT边缘 IoTEdge 云日志 服务 LTS 编译构建 CloudBuild 对象存储迁移 服务 OMS 云备份服务 CBR 消息&短信服务 MSG SMS 弹性公网IP EIP 云审计 服务 CTS 云搜索服务 CSS 视频分析服务 VAS 数据管理服务 DAS 裸金属服务器 BMS 云测 CloudTest VPC终端节点 VPCEP 云存储 网关服务 CSG 虚拟专用网络 VPN 企业路由器 ER 推荐系统 RES 云服务器备份服务 CSBS 内容分发网络服务 CDN 容器安全服务 CGS 态势感知 SA 代码托管 CodeHub 表格存储服务 CloudTable 云硬盘备份服务 VBS 云速建站 CloudSite 云手机 CPH 云性能测试服务 CPTS 智能边缘云 IEC 函数工作流 服务 FunctionGraph 主机迁移服务 SMS 标签管理服务 TMS 对话机器人服务 CBS 关系型数据库 RDS 云解析服务的Region级 DNS 存储容灾服务 SDRS 语音通话 VoiceCall 应用性能管理 APM 应用编排服务 AOS 数据接入服务 DIS 数据库安全服务 DBSS 慧眼HiLens HiLens 云数据迁移 CDM 多活高可用服务 MAS 流水线 CloudPipeline 图像识别 Image OBS应用事件源 对象存储服务 OBS 智能边缘平台 IEF 容器镜像服务 SWR 分布式缓存服务 DCS 弹性伸缩 AS 漏洞扫描服务 VSS 图引擎服务 GES 数据湖探索 DLI 云容器实例 CCI 需求管理 CodeArts Req 文档数据库服务 DDS 数据复制服务 DRS AI平台ModelArts 分布式数据库 中间件 DDM 消息通知 服务 SMN 应用管理与运维平台 ServiceStage 软件开发生产线 CodeArts 区块链 服务 BCS 应用运维管理 AOM MapReduce服务 MRS 云堡垒机 CBH 企业主机安全 HSS Web应用防火墙 WAF 弹性负载均衡 ELB 云硬盘 EVS 应用与 数据集成平台 ROMA Connect 云容器引擎 CCE 镜像服务 IMS 弹性云服务器 ECS
-
操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流>专业版事件流作业”,进入“专业版事件流作业”页面。 右上角单击“创建作业”,进入“基础配置”。 配置“基本配置”信息,以下内容将以非白名单账号举例介绍。 表1 作业基本配置参数说明 参数 说明 集群 选择已创建的集群,如未创建,请参见专业版事件流集群。 作业名称 请输入作业名称。 场景类型 可选“同步”或“迁移”。 同步:实现数据源之间的数据实时同步,支持正向和反向的长期单向数据同步。 迁移:适用于业务割接期数据的整体搬迁上云,只支持短期单向同步。 描述 请输入对本作业的描述。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图1 源数据和目标数据配置 表2 源数据和目标数据配置参数说明 参数 说明 配置类型 在同步场景下,源数据端为默认为“Kafka实例”。 在迁移场景下,源数据端为默认为“Kafka地址”。 目标数据端默认为“Kafka实例”。 说明: 配置类型根据实例类型变更。 实例别名 请输入实例别名。 用于标识源端和目标端实例,建议同一个源端或目标端实例只设置一个别名。 Kafka地址 仅在迁移场景下,源数据端需配置。 输入Kafka地址 区域 请选择资源所在区域。 项目 请选择项目。 Kafka实例 请选择Kafka实例。 接入方式 支持“明文接入”或“密文接入”。 安全协议 当选择明文接入时,安全协议为“PLAINTEXT”。 当选择“密文接入”时,安全协议可选择“SASL_SSL”或“SASL_PLAINTEXT”。 认证机制 当接入方式选择“密文接入”时需配置。 认证机制可选择“SC RAM -SHA-512”或“PLAIN”。 用户名 当接入方式选择“密文接入”时需配置。 请输入用户名。 密码 当接入方式选择“密文接入”时需配置。 请输入密码。 单击“测试连通性”按钮确认源端、目标端实例连通性通过之后,单击“下一步:高级配置”,进入“高级配置”页面。 图2 高级配置 表3 作业对象配置参数说明 参数 说明 Topic匹配类型 选择“正则匹配”或“精确匹配”。 说明: 当选择“正则匹配”时需在下方输入“Topic正则”。示例:.* 表示匹配所有Topic,topic.* 表示匹配所有以topic为前缀的Topic。 当选择“精确匹配”时需选择“Topics”。 副本数 请配置副本数。 自动创建的Topic副本数,不能超过目标端Kafka的Broker数量。 同步消费进度 请选择是否打开。 开启时表示将消息消费进度同步到目标Kafka。 启动偏移量 请选择为“最早”或“最新”。 压缩算法 请选择压缩算法为“none”、“gzip”、“snappy”、“lz4”或“zstd”。 单击“下一步:预检查”,进入“预检查”页面,完成后单击“完成配置”。 返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 表4 参数说明 参数名称 说明 Topic名称 创建Kafka实例时的Topic。 分区数 创建Topic时设置的分区数,分区数越大消费的并发度越大。 待同步数 当前Topic分区数中未同步的消息数量。 同步速率:当前作业同步消息时的速率,单击“限流”可跳转至源端Kafka实例的“流控列表”页面,用户可通过配置流控进而实现限流目的。
-
约束与限制 “同步”场景的约束与限制: 源Kafka和目标Kafka仅支持DMS服务Kafka实例,实例版本需保持一致,目前支持版本为2.7、3.x。 目标Kafka实例和源Kafka的代理数量、代理CPU、内存、存储空间需保持一致。 “迁移”场景的约束与限制: “迁移”场景类型需开通白名单,使用前请提交工单申请。 目标Kafka仅支持DMS服务Kafka实例,目前支持版本为2.7、3.x;源端Kafka支持2.7、3.x版本的DMS服务Kafka,或支持兼容开源2.7及以上版本的云厂商/自建Kafka。 目标Kafka实例和源Kafka的代理数量需保持一致,目标Kafka实例代理CPU、内存、存储空间、topic和分区数需不低于源Kafka。
-
操作步骤 登录事件网格控制台,本章节以配置Kafka事件流作业为例介绍。 在左侧导航栏选择“事件流>专业版事件流作业”,进入“专业版事件流作业”页面。 单击操作列“修改配置”按钮,进入“基础配置”页面,此处只能修改“作业名称”和“描述”。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 表1 源数据目标数据配置参数是否支持修改说明 参数 是否支持修改 配置类型 否。 实例别名 否。 区域 否。 项目 否。 Kafka实例 否。 接入方式 是,支持“明文接入”或“密文接入”。 安全协议 是。 当选择明文接入时,安全协议为“PLAINTEXT”。 当选择“密文接入”时,安全协议可选择“SASL_SSL”或“SASL_PLAINTEXT”;认证机制可选择“SCRAM-SHA-512”或“PLAIN”。 用户名 请输入用户名。 当接入方式选择“密文接入”时需配置。 密码 请输入密码。 当接入方式选择“密文接入”时需配置。 单击“下一步:高级配置”,进入“高级配置”页面。 表2 作业对象配置参数是否支持修改说明 参数 是否支持修改 Topic匹配类型 是,可选择“正则匹配”或“精确匹配”。 说明: 当选择“正则匹配”时需在下方输入“Topic正则”。 当选择“精确匹配”时需选择“Topics”。 副本数 是。 自动创建的Topic副本数,不能超过目标端Kafka的Broker数量。 同步消费进度 是。 说明: 开启时表示将消息消费进度同步到目标Kafka。 启动偏移量 否。 压缩算法 是,可选择压缩算法为“none”、“gzip”、“snappy”、“lz4”或“zstd”。 单击“下一步:预检查”,进入“预检查”页面,完成后单击“完成配置”。
-
约束与限制 当前DCS的专业版事件流作业需开通白名单,使用前请提交工单申请。开通后默认支持“同步”场景作业,“迁移”场景需额外开通白名单。 “同步”场景的约束与限制: 仅支持Redis 5.0版本的单机、主备和Cluster集群。 源端和目标端Redis实例的实例规格、实例类型、存储空间需保持一致,否则不支持同步事件流。 源端和目标端Redis实例需要打开eventLog配置、关闭appendonly(Redis单机实例无该参数)配置。 确保源端和目标端Redis实例已关闭客户端的IP透传功能。 “迁移”场景的约束与限制: 源端仅支持4.0、5.0、6.0版本Redis,目标端仅支持DCS服务的Redis 4.0、5.0、6.0版本单机、主备和Cluster集群类型实例。 如果源端Redis禁用了SYNC和PSYNC命令,请务必放通后再执行在线迁移,否则会导致在线迁移失败。 如果源端为DCS的Redis实例,需要配置eventlog参数为no;目标端Redis实例需要配置eventlog参数为no。 建议将源端Redis的repl-timeout参数配置为300秒,client-output-buffer-limit参数配置为源端Redis最大内存的20%。 开启了SSL的源端和目标端Redis不支持数据迁移,需要关闭Redis的SSL后再进行迁移。 如果源端和目标端Redis连接密码中包含单引号('),则不支持进行迁移,需要修改密码后再进行迁移。 如果是支持多DB的Redis迁移,请确保目标端的DB数量可支持源端有数据的最大DB序号。例如,源端有DB0到DB127,有数据最大DB序号为DB99,则目标端需要有100个DB及以上。
-
操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流>专业版事件流作业”,进入“专业版事件流作业”页面。 右上角单击“创建作业”,进入“基础配置”。 配置“基本配置”信息。 表1 作业基本配置参数说明 参数 说明 集群 选择已创建的集群,如未创建,请参见专业版事件流集群。 作业名称 请输入作业名称。 场景类型 可选“同步”或“迁移”。 同步:实现数据源之间的数据实时同步,支持正向和反向的长期单向数据同步。 迁移:适用于业务割接期数据的整体搬迁上云,只支持短期单向同步。 描述 请输入对本作业的描述。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图1 源数据和目标数据配置 表2 源数据和目标数据配置参数说明 参数 说明 配置类型 在同步场景下,源数据端为默认为“DCS实例”。 在迁移场景下,源数据端为默认为“DCS地址”。 目标数据端默认为“DCS实例”。 说明: 配置类型根据实例类型变更。 区域 请选择资源所在区域。 项目 请选择项目。 DCS实例 请选择DCS实例。 实例类型 仅在迁移场景下,源数据端需配置。 选择实例类型。 单机 主备 Cluster集群 DCS地址 仅在迁移场景下,源数据端需配置。 输入DCS地址。 访问方式 仅在迁移场景下,源数据端需配置。 选择访问方式。 密码访问。 免密访问。 用户名 仅在迁移场景下,源数据端需配置。 输入DCS用户名。 密码 输入DCS密码。 单击“测试连通性”按钮确认源端、目标端实例连通性通过之后,单击“下一步:高级配置”,进入“高级配置”页面。 表3 场景类型为“同步”配置参数说明 参数 说明 同步类型 默认为“全量+增量”。 是否限制同步速率 默认开启。 同步速率(MB/s) 请设置同步速率。 输入值必须在1到20之间。 使用Slave节点 默认开启。 表4 场景类型为“迁移”配置参数说明 参数 说明 同步类型 默认为“全量+增量”。 重试策略 选择重试策略。 立即重试:巡检任务发现任务出错后立即尝试重试。 定时重试:巡检任务发现任务错后,在指定时间窗内尝试重试。 限制无法连接后的重试时间 重试策略选择“立即重试”时需配置。 开启时可设置无法连接后的重试时间,关闭时出现无法连接问题后将一直重试。 无法连接后的重试时间(分) 重试策略选择“立即重试”时需配置。 配置无法连接后的重试时间。 限制出现其他问题后的重试时间 重试策略选择“立即重试”时需配置。 开启时可设置出现其他问题后的重试时间,关闭时出现其他问题后将一直重试。 出现其他问题后的重试时间(分) 重试策略选择“立即重试”时需配置。 配置出现其他问题后的重试时间。 无法连接后的重试开始时间 重试策略选择“定时重试”时需配置。 配置无法连接后的重试开始时间。 无法连接后的重试结束时间 重试策略选择“定时重试”时需配置。 配置无法连接后的重试结束时间。 出现其他问题后的重试开始时间 重试策略选择“定时重试”时需配置。 配置出现其他问题后的重试开始时间。 出现其他问题后的重试结束时间 重试策略选择“定时重试”时需配置。 配置出现其他问题后的重试结束时间。 使用Slave节点 默认开启。 在迁移任务启动后,若事件流集群到源端或目标端实例出现连接失败问题,支持按照配置策略进行重试操作。如果在配置的时间内重新连接上源端、目标端实例,迁移任务将自动恢复。否则,迁移任务将失败。 连接问题可能出现的场景举例: 源端或者目标端实例下电、关机、重启等; 事件流集群到源端或者目标端实例的网络连接异常; 源端或者目标端节点或者分片故障,无法对外提供访问。 在迁移任务启动后,若源端或目标端实例出现除连接失败外的其他问题,支持按照配置策略进行重试操作。如果在配置的时间内数据迁移操作恢复正常,迁移任务将自动恢复。否则,迁移任务将失败。 非连接问题可能出现的场景举例: 源端未开启psync; 源端当前状态无法迁移数据,如源端重启后初始化加载RDB阶段; 源端Redis命令迁移失败,如源端Redis命令在目的端上不支持; 源端或者目标端密码修改。 单击“下一步:预检查”,进入“预检查”页面,完成后单击“完成配置”。 返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 表5 参数说明 参数名称 说明 源节点 源数据中DCS实例的地址。 目标节点 目标数据中DCS实例的地址。 状态 DCS事件流同步进展执行情况。 同步进度 DCS事件流同步进展执行进度。 同步阶段 分为全量、增量和全量+增量。 源端已执行事务数 源端的数据数量。 目标端已执行事务数 目标端同步后的数据数量。
-
查看监控指标 登录事件网格控制台。 在左侧导航栏选择“事件流>专业版事件流作业”,进入“专业版事件流作业”页面。 单击待查询的事件流名称,进入基本信息页面。 单击“监控指标”,查看监控信息。 在监控指标页面,默认展示近1小时的所有投递事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的投递事件数据。 图3 监控指标 支持自定义时间跨度,可自定义选择查询的时间区间。 开启“自动刷新”后,指标数据会每5s刷新一次。 单击“查看更多指标详情”,可跳转至 云监控 CES界面。 当“周期”选择为原始值时,监控数据为原始数据;当“周期”选择为具体时间时,监控数据可选择“平均值”、“最大值”、“最小值”、“求和值”、“方差值”的聚合算法。
-
操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件通道”,进入“事件通道”页面。 单击“创建事件通道”,弹出“创建事件通道”对话框。 输入事件通道名称、描述信息,单击“确定”,完成自定义事件通道的创建;具体参数可参考下表: 表1 创建自定义事件通道参数说明 参数名称 说明 通道名称 请输入通道名称。 描述 请输入描述。 企业项目 请选择企业项目。(关联企业项目后,不支持修改。) 事件通道创建成功后,在“自定义事件通道”区域查看创建的自定义事件通道。 如果需要修改自定义事件通道的描述信息,单击待修改事件通道后的“编辑”,在弹出的对话框中编辑描述信息。 如果需要查看自定义事件通道的信息,单击待查看信息的事件通道名称,在弹出的对话框中查看自定义事件通道信息。
-
使用限制 单账号跟踪的事件可以通过云审计控制台查询。多账号的事件只能在账号自己的事件列表页面去查看,或者到组织追踪器配置的OBS桶中查看,也可以到组织追踪器配置的CTS/system日志流下面去查看。 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 云上操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 CTS新版事件列表不显示数据类审计事件,您需要在旧版事件列表查看数据类审计事件。 云审计控制台对用户的操作事件日志保留7天,过期自动删除,不支持人工删除。
-
Serverless版事件流概述 随着业务系统的扩展,数据源生成的数据流不仅数量激增,而且速度也显著加快,这就要求采用更加高效的方式来分析和处理这些数据。 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 如下图所示,事件源与事件目标之间的交互不再依赖于传统的事件订阅机制,而是直接通过事件流的形式进行无缝传输,确保了信息传递的即时性和准确性。 图1 事件流示意图 父主题: Serverless版事件流
-
入门实践 当您购买了事件网格后,可通过华为云服务、自定义应用、SaaS应用以标准化、中心化的方式接入事件网格,通过标准化的CloudEvents协议在这些应用之间以灵活方式路由事件,帮助您轻松构建松耦合、分布式的事件驱动架构。 本文介绍事件网格服务的常见实践,帮助您更好的使用事件网格服务。 表1 入门实践 实践 描述 基于事件订阅将OBS应用事件源消息路由至分布式消息服务Kafka版 基于事件网格服务的事件订阅功能将OBS应用事件源产生的事件路由至分布式消息服务Kafka版
-
步骤五:发送自定义事件 配置自定义事件,具体请参考CloudEvents SDK。 修改发布事件示例代码中如下参数: NAME:IAM用户名。 PASSWORD:IAM 用户密码。 DOMAIN_NAME:IAM domain用户名。 IAM_ENDPOINT:IAM的终端节点,您可以从地区和终端节点中查询服务的终端节点。 PROJECT_ID:即项目ID,参考API凭证,获取项目ID。 CHANNEL_ID:修改为步骤一中记录的通道ID。 ENDPOINT:事件网格访问端点,如“华北-北京四”区域,公网访问端点值为“events.cn-north-4.myhuaweicloud.com”。 SOURCE:即事件源名称,修改为步骤四:创建事件订阅中配置事件源时记录的“Filter”中“values”值。 TIME:修改事件产生的时间。 DATA:根据实际情况修改,事件内容遵循CloudEvents 1.0规范。 运行发布事件的main函数。