华为云用户手册

  • 服务优势 统一变更的管控入口,变更管理除支持IaC变更外增加对手工运维变更和ITR紧急变更的统一管控和变更记录。 统一运行时托管平台,将可靠性、韧性、可运维、安全等能力built-in,实现服务部署即可信。 基于IaC3.0声明式,实现资源创建、服务部署、配置变更自动化对接运行时,实现服务可靠运行。 具有丰富的变更评估因素和评估算法,具有高评估召回率和准确率。 支持根据评估结果对变更进行干预(暂停、回滚等),实现系统自动决策。
  • 功能特性 功能 功能描述 告警列表 告警的控制台,提供对于告警的一系列处理操作和生命周期查询。 告警通知 告警的通知在所有的告警处理的链路结束以后才会发生。告警处理模块会根据上报告警的上下文获取告警的值班配置,值班配置由业务预置。 告警屏蔽 为您提供短时间的屏蔽功能,可以通过设置告警屏蔽的规则,告警将在屏蔽的时间内不再触发任何通知,规则结束后,将会被再次唤醒,屏蔽期间告警被清除后,将不再触发任何通知,减少您的处理频度。 告警过滤 告警过滤是直接在接入的阶段就将告警屏蔽,告警仍然会进入Bypass的数据库但不会再向下发送给告警处理模块。 告警收敛 多个维度的告警,通过特定的条件将它们变为一条告警,只需要配置自定义的收敛规则,就可以将重复告警收敛到一起,当然还有默认的规则帮助你维护告警。 告警标记 告警标记的作用是为一段时间内的告警打上标签,例如现网变更或者现网演练时,由于要模拟大量异常请求和其他操作会造成大量无用告警上报,标记的作用就是为这一段时间的告警打上标签与正常告警进行区分。 告警定义 如果您对于繁琐复杂的告警上报字段感到困惑,可以使用统一告警定义,该功能会自动下发到业务对应的agent,使用更加人性化的界面设计,让告警上报更加统一、准确。 告警修复 设置特定的命中条件,告警在发送通知之前将会进行预置的修复脚本,修复操作,自动帮助您修复简单的告警。 语音值班配置 配置对应的责任人,当告警生成时,通过短信、电话等形式,快速通知责任人。
  • 部署服务 表1 部署服务基本概念 基本概念 说明 资源 资源是具备一定功能和作用的实例,是部署服务的管理对象,如WiseCloud::MicloudService::NuwaContainer实例、WiseCloud::Cache::D CS 实例等。 组件 组件是一个具有相同资源的集合,组件具备以下特点: 可以在组件中声明资源以及资源之间的依赖关系。 同一个资源只能属于一个组件。 组件下的所有资源上下文一致。 环境 环境是一个具有相同组件的集合,环境具有以下特点: 部署服务代码中的environment-id是“环境”的唯一索引。 不同环境下的组件和资源可以同名,同一环境下的资源和组件名称需要保证唯一。 一个组件只能属于一个环境,一个环境下会有多个组件。 环境变更的本质是环境下组件的变更。 流水线 流水线是将多个组件的变更组合起来的流程描述,描述各个组件变更的方式和次序。 变更工单 变更工单是实施现网变更的授权许可,业务需要发起现网变更时,通常会由研发人员提交变更电子流,并附上对应的变更文档。该电子流被审批通过后,会在变更工单管理中,创建一条对应的变更工单,运维可使用变更工单实施变更。 变更计划 变更计划是部署服务发起具体变更动作前的风险影响评估过程。通过风险影响评估过程可以得到,本次变更可能导致的资源动作和属性差异变化,以及可能的风险项。 变更风险项 变更风险项是某个资源的具体变更的风险认定。其描述了认定为风险变更的属性变化,以及能够审批允许的审批人列表。 变更策略 变更策略是由资源提供方或是部署服务平台方按照资源类型预先定义的,在变更计划中被用于产生风险项的管控要素。它是变更管控的重要一环,识别了何种资源操作以及怎样的属性变化是高风险的,并同时指定产生的风险项应当由具备哪些岗位或角色的审批人来审批允许。 变更配置 变更配置与监控服务(ServiceInsight)配合使用,通过配置变更巡检任务,在变更时会对相应的变更项进行巡检。 变更电子流 变更电子流是用于无人值守变更的高度自动化的变更方式,是在部署服务基础上,尽可能将所有的运维手工选择操作前移到提交电子流之前。 Terraform Terraform是HashiCorp公司开发的基础设施即代码(Infrastructure-as-Code,IaC)软件,它能自动化的进行 资源编排 ,用于安全高效地预览、配置和管理云基础架构和资源,并提供自定义解决方案,目前已被多家主流公有云厂家支持和集成。
  • 监控服务 表2 监控服务基本概念 基本概念 说明 监控 是采集、汇总和分析IT基础设施、服务组件以及程序应用的运行指标,以了解其当前状态和运行状况,判断是否安全可靠的过程,是保证业务持续稳定运行的重要手段。 告警 告警是监控系统的响应组件,它根据指标值的变化按照既定的策略执行响应操作,其主要目的是引起人们对系统当前状态的关注。告警定义包含基于指标的条件或阈值以及当指标值达到或超出定义条件时要执行的操作。 告警通知 告警的通知在所有的告警处理的链路结束以后才会发生。告警处理模块会根据上报告警的上下文获取告警的值班配置,值班配置由业务预置。 告警屏蔽 为您提供短时间的屏蔽功能,可以通过设置告警屏蔽的规则,告警将在屏蔽的时间内不再触发任何通知,规则结束后,将会被再次唤醒,屏蔽期间告警被清除后,将不再触发任何通知,减少您的处理频度。 告警过滤 告警过滤是直接在接入的阶段就将告警屏蔽,告警仍然会进入Bypass的数据库但不会再向下发送给告警处理模块。 告警收敛 多个维度的告警,通过特定的条件将它们变为一条告警,只需要配置自定义的收敛规则,就可以将重复告警收敛到一起,当然还有默认的规则帮助你维护告警。 告警标记 告警标记的作用是为一段时间内的告警打上标签,例如现网变更或者现网演练时,由于要模拟大量异常请求和其他操作会造成大量无用告警上报,标记的作用就是为这一段时间的告警打上标签与正常告警进行区分。 告警定义 对于繁琐复杂的告警上报字段感到困惑,使用统一定义,将会自动下发到业务对应的agent,更加人性化的界面设计,使告警上报更加统一、准确。 告警修复 设置特定的命中条件,告警在发送通知之前会执行预置的修复脚本,进行修复操作,自动帮你修复简单的告警。 语音值班配置 当告警生成时,配置对应的责任人,通过短信、电话等多种形式,快速将异常情况通知到责任人。 日志 日志是指设备、系统或服务程序在运作时都会产生的事件记录,每一行日志都记载着日期、时间、使用者及动作等相关操作的描述。一般系统会有各种各样的日志文件,如应用程序日志,安全日志、系统日志、Scheduler服务日志、FTP日志、WWW日志、DNS服务器日志等。 日志项目 日志项目是一个包含多个日志服务配置的整体,可以看作是一个微服务实例。 同一个微服务实例下的日志服务配置应当包含在一个日志项目中。 不同微服务实例使用完全相同的日志服务配置时,也可以共用同一个日志项目。 日志空间 日志空间是日志服务为微服务的日志分配的使用空间。 业务须在日志接入页面填写日志相关信息并提交申请日志空间,日志空间支持定义空间内日志的结构化格式信息,此时要求所有使用此空间的日志都满足该日志格式。 日志采集配置 日志采集配置是日志服务采集端在采集微服务实例中日志时所需的配置,一种日志对应一项采集配置。 日志采集配置须归属于一个日志项目,并使用一个已分配好的日志空间。 日志采集配置之间可以共用日志空间,此时需要关注日志空间的日志格式要求,未定义日志格式的空间可不用关注。 巡检 巡检是指定期对IT系统进行全面的检查和评估,以确保系统的稳定性和可用性。通过系统巡检,SRE可以及时发现潜在的问题和故障,提前采取措施进行解决和预防,从而减少系统故障的发生和缩短故障恢复时间。同时,系统巡检还可以帮助SRE团队了解系统的运行状况和性能表现,为优化系统的配置和改进运维流程提供依据。 事件 事件是指IT基础设施、服务组件以及程序应用等运行过程中发生的问题。事件可通过监控系统自动生成、客户报障生成或SRE主动巡检生成等。监控系统生成事件首先要采集和分析运行数据,然后根据预定规则判断是否需要生成事件。 HCW HW Cloud Watch,监控系统,可以提供监控、告警功能。 HCW Agent 监控系统的采集框架,需要在每台主机上部署,部署路径为/opt/huawei/HCW_Agent。 EAP 事件自动化平台(Event & Action Platform,EAP),通过集成各系统动作,解决复杂运维场景的操作编排功能。 流程 可以通过EAP平台所提供的各种动作组合来编排解决具体运维场景的流程。 动作 各服务的操作(例如部署任务、执行作业、确认告警等)封装。 标签 对某一类特定群体或对象的某项特征进行的抽象分类和概括,其值(标签值)具备可分类性。 标签树 标签树负责标签的管理,包括标签的创建,删除,修改。系统标签由系统管理员统一进行管理,业务自定义标签由业务人员进行管理。 逻辑主体 逻辑主体是业务实体的抽象。 在AIOPS的实时场景,逻辑主体基于物理表(Druid、ClickHouse、influxDB)创建。逻辑主体和物理表之间存在映射关系,逻辑主体的字段名称和物理表可以不一样,这也是为了实现业务属性和物理表之间的解耦。 一个逻辑主体可以映射多种物理实体,当底层数据物理表变更(Druid表发生变更,或者需要从ClickHouse原始数据计算指标),上层的指标逻辑定义可以不用发生变化。 指标 指标是指在被观测系统中观察和收集的资源使用或行为的测量值,可能是原始采集的数据,也可能是后期经过各种计算和统计方法得到的数值。 令牌 令牌是使用数据源的鉴权方式,只有通过对应业务的token的鉴权,才能使用对应的数据源。 视图 指标本身包含了业务计算规则,只有结合数据源才能真正被查询。视图,就是指标 + 物理表的结合,也是监控大盘上直接可被查询的对象。视图可以包含一个或多个指标,例如折线图只需要单指标的视图,但是表格就需要多指标的视图。 查询视图(Query View)。直接作用于物理表的查询视图,大多用在druid实时监控场景。 长期存储视图(Long Term View)。基于查询视图,可以创建长期存储视图。如果觉得某个查询视图值得被长期持久化,就可以使用该能力。长期存储视图会自动创建三个聚合任务,分别是5分钟粒度、小时粒度、天粒度。 持久化视图(Persistent View)。基于查询视图,可以创建持久化视图。部分视图需要出日报,就可以使用该能力。该视图会自动创建一个汇聚任务。 异常检测视图(Anomaly Detect View)。基于查询视图,可以创建异常检测视图,用来为异常检测任务提供数据。 插件 可在机器上执行并采集各项参数的二进制文件或者脚本。
  • 演练服务 表3 演练服务基本概念 基本概念 说明 BCM 业务连续性管理(Business Continuity Management,BCM),是识别业务潜在威胁,分析威胁一旦发生对业务运营可能带来的影响,通过有效应对措施保护关键利益关系人的利益、信誉、品牌和价值创造活动,建设业务恢复能力的管理过程。 演练 通过向系统的指定位置注入指定故障,观察实验结果,以验证和提高系统可用性的过程。 IMP 应急预案( Incident Management Plan,IMP),是为应对可能发生的突发事件,保护人员安全、降低财产损失、加强应急沟通拟制的应对程序和计划,防止损失扩大。 BCP 业务连续性计划(Business Continuity Plan,BCP),保证关键产品关键活动在预定可接受水平上的业务连续。在业务影响分析 、风险评估和恢复策略选择的基础上,拟制应对方案和计划。 故障场景 是对现实情况中故障的模拟,通过向被测系统注入故障,实现测试、优化系统稳定性的目的。 故障模式 是演练服务中的混沌工程工具根据系统可能发生故障的直接或根本原因,模拟出各种故障场景的能力。 稳态指标 是根据系统稳态的假说,分析给出一组代表系统健康度的指标及度量阈值,这组指标就被称为稳态指标。 演练监控 为了判断系统是否稳定运行以及故障注入是否执行成功,可提前配置系统稳态指标,在演练过程中实时监测,感知系统状态变化。
  • 更多操作 您还可以对MPPDB进行以下操作。 表1 MPPDB管理 操作名称 操作步骤 导入 在MPPDB页面单击“导入”。 上传文件。 查看导入进度 在MPPDB页面单击“查看导入进度”。 导出 在MPPDB页面列表中,勾选需要导出的MPPDB表。 单击列表上方的“导出”。 编辑Tags 在Hive页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 在MPPDB页面列表中,单击待关联Tags表所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 说明: 关联Tags之前须先编辑并新建Tags。 编辑表 在MPPDB页面列表中,单击待编辑MPPDB表所在行的“编辑”。 删除表 在MPPDB页面列表中,单击待删除MPPDB表所在行的“删除”。 查看操作历史 在MPPDB页面列表中,单击待查看操作历史的MPPDB表所在行的“操作历史”。 查看历史版本信息 在MPPDB页面列表中,单击待查看历史版本信息的MPPDB表所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • 创建提取任务 在Druid页面列表中,单击待编辑任务的Druid数据源所在行的“编辑任务”,进入该数据源提取任务页面。 单击“创建任务”,进入“创建任务”页面。 配置任务参数,参数说明如表2所示。配置完成后,单击“确定”。 表2 配置任务参数说明 参数名称 参数说明 名称 Druid提取任务名,默认与数据源同名,无需手动填写。 描述 输入描述信息。 调度集成 定时执行Druid提取任务的调度集群。 Kafka Topic 选择需要消费数据的kafka topic。 使用最早offset消费 首次提交的任务设置为false,补数据时配置为true。 任务数 需要多少个并发进程同时读取该druid任务所对应的kafka topic,任务数(默认为2)应该小于topic分区数,并且能被topic分区数所整除,这样每个druid的子任务可以读取相同的数据量,达到负载均衡的效果。 指标列表 该指标列表由创建数据源时选择的指标决定,如果指标与对应的kafka字段名一致,会自动填充,如果不一致,需手动添加映射。 任务配置完成后,在Druid页面列表中,单击已编辑的任务的Druid数据源所在行的“启动”,启动导流任务. 在数据源生命周期内,Druid集群会持续提取Kafka数据到Druid数据源中。
  • 更多操作 您还可以对Druid进行以下操作。 表3 Druid管理 操作名称 操作步骤 导入 在Druid页面单击“导入”。 上传文件。 查看导入进度 在Druid页面单击“查看导入进度”。 导出 在Druid页面列表中,勾选需要导出的Druid数据源。 单击列表上方的“导出”。 编辑Tags 在Druid页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 在Druid页面列表中,单击待关联Tags数据源所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 说明: 关联Tags之前须先编辑并新建Tags。 编辑数据源 在Druid页面列表中,单击待编辑Druid数据源所在行的“编辑”。 删除数据源 在Druid页面列表中,单击待删除Druid数据源所在行的“删除”。 查看操作历史 在Druid页面列表中,单击待查看操作历史的Druid数据源所在行的“操作历史”。 查看历史版本信息 在Druid页面列表中,单击待查看历史版本信息的Druid数据源所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • logalarm 功能说明 监控指定日志文件,配置日志匹配关键字,并按照配置参数的要求,生成告警并上报到HCW。 参数配置 collect_file_path #日志文件采集路径 消息样例及含义说明 插件按照配置参数的要求上报日志告警数据,日志告警数据样例: { "id": "Log_030104014395", #单位: | 类型:string | 说明:告警ID "use_custom_id":"" #单位: | 类型:string | 说明:是否使用用户自定义告警ID "alarm_name": "Interface getSC() success rate abnormal", #单位: | 类型:string | 说明:告警名称(支持配置变量{{$log_info}},上报告警时会替换成匹配到的最后一条ERROR日志;支持配置变量{{$all_matching_log}},上报告警时会替换成匹配到的所有ERROR日志,当alarm_name配置了变量{{$all_matching_log}}时,若产生告警且后续周期又匹配到了告警,新匹配到的告警会在原告警ID的基础上,产生一个新的告警,并上报到监控系统,告警清除时会清除当前告警和后续产生的告警;当alarm_name配置为空时,会读取文件中的所有内容,逐行检测并上报告警。) "alarm_level": "critical", #单位: | 类型:string | 说明:告警级别(notice 提示、minor 一般、major 严重、critical 致命) "key_word": "-ERROR .*getSC", #单位: | 类型:string | 说明:日志匹配关键字,支持正则表达式 "match_file": "/opt/huawei/test/error.log", #单位: | 类型:string | 说明:日志文件绝对路径,支持变量、通配符,配置多个地址时需要使用逗号分隔 "matches": 2, #单位: | 类型:long | 说明:最大匹配次数 "number_of_match_period": 30, #单位: | 类型:long | 说明:匹配周期数,与matches和key_word组合使用(30个周期内匹配2次以上,则产生告警;30个周期内匹配2次或者2次以下,则清除告警。) "number_of_nodata_period": 10, #单位: | 类型:long | 说明:无数据上报的周期数, 单独使用,与matches和key_word无关联(10个周期内有数据则产生告警,10个周期内无数据上报则清除告警。) "description": "test" #单位: | 类型:string | 说明:告警详情,进一步丰富告警信息 }
  • alarmmonitor 周期性执行脚本,将指定文件中的业务告警数据,上报给HCW监控系统。 业务文件中写入的告警数据的站点site需要为cn_product_cbu,否则上报到监控服务后告警列表不会显示该告警。 参数配置 为插件配置业务文件采集路径: collect_file_path:${ALARM_HOME}/*.dat,/opt/huawei/alarm/hispace/*.dat 该配置为绝对路径,可以配置变量,并且能够把识别到的环境变量展开,可以配置通配符(*.),并将识别到的路径展开,可以配置多个路径,按逗号分隔。 如果使用了环境变量,要求在~/.bashrc中添加export命令进行配置。如export ALARM_HOME=/opt/huawei/alarm,在配置生效后,可通过source ~/.bashrc或重启机器,再启动agent进行数据采集。 消息样例及含义说明 插件按行上报业务文件中的监控告警数据,告警上报的数据会根据产品ID、服务ID、level等信息生成一个唯一标识,该标识为告警的指纹信息,监控服务会依据指纹信息进行告警的判重,不同的上报源指纹信息不同,具体如下: CES 上报:产品id、服务id、'alarm_id'_'metric_name'、'dimension'、告警级别,其中单引号内字段均为CES上报告警体中的原始字段,alarm_id为CES告警id,metric_name为指标名称,dimension一般为资源id。 AOM 上报:产品id、服务id、'id'、'cluster_name'、告警级别,其中单引号内字段均为AOM上报告警体中的原始字段,id为AOM告警id,cluster_name一般为资源id。 监控服务上报:产品id、服务id、'id'、'source_tag'、告警级别,其中单引号内字段均为监控服务上报告警体中的原始字段。 aiops上报:租户id、产品id、服务id、'id',其中单引号内字段为aiops上报告警体中的原始字段。 监控告警数据样例如下: #上报告警 {     "id":"q20934uii2uss8i7", #单位: | 类型:string | 说明:告警ID     "name":"The IF getxxx is abnormal", #单位: | 类型:string | 说明:告警名称     "level":"major", #单位: | 类型:string | 说明:告警级别     "site": "cn_product_cbu", #单位: | 类型:string | 说明:站点     "tenant_id": "T006", #单位: | 类型:string | 说明:租户ID     "application_id": "com.huawei.wiseeye", #单位: | 类型:string | 说明:产品ID     "service_id": "com.huawei.wiseeyewatchservice", #单位: | 类型:string | 说明:服务ID     "env_id": "6132b864b7c6437691fa55c1f44dec4e", #单位: | 类型:string | 说明:可选, 环境ID          "source_tag":"host-10-22-0-36", #单位: | 类型:string | 说明:告警产生来源     "op_type":"firing", #单位: | 类型:string | 说明:告警操作类型(firing 产生告警、resolved 清除告警)     "details":"DownloadSuccess is less than 90% for 5m", #单位:| 类型:string | 说明:告警详情     "clear_type":"ADAC", #单位: | 类型:string | 说明:清除类型,固定写为ADAC,无具体逻辑含义     "start_timestamp":1514942958000, #单位: | 类型:long | 说明:告警开始时间戳     "end_timestamp":0 #单位: | 类型:long | 说明:告警结束时间戳     "receive":"xx8000000", #单位: | 类型:string | 说明:可选, 告警接收人名单 } #清除告警 {     "id":"qjxswr8ge2no5mat", #单位: | 类型:string | 说明:告警ID     "name":"The IF getxxx is abnormal", #单位: | 类型:string | 说明:告警名称     "level":"critical", #单位: | 类型:string | 说明:告警级别     "site": "cn_dev_default", #单位: | 类型:string | 说明:站点     "tenant_id": "T006", #单位: | 类型:string | 说明:租户ID     "application_id": "com.huawei.wiseeye", #单位: | 类型:string | 说明:产品ID     "service_id": "com.huawei.wiseeyewatchservice", #单位: | 类型:string | 说明:服务ID     "env_id": "6132b864b7c6437691fa55c1f44dec4e", #单位: | 类型:string | 说明:可选, 环境ID     "source_tag":"host-10-22-0-36", #单位: | 类型:string | 说明:告警产生来源     "op_type":"resolved ", #单位: | 类型:string | 说明:告警操作类型(firing 产生告警、resolved 清除告警)     "start_timestamp":0, #单位: | 类型:long | 说明:告警开始时间戳     "end_timestamp":1515242958000 #单位: | 类型:long | 说明:告警结束时间戳     "receive":"xx8000000", #单位: | 类型:string | 说明:可选, 告警接收人名单 }
  • sds_jmx 功能说明 执行Java程序,采集Java进程相关指标数据。 参数配置 配置样例: _filter_sds_ip:127.0.0.1 # 需要采集的进程所运行的主机,可远程采集 sds_authentication # jmx验证信息文件保存的路径 whitelist:ColumnFamily_app20170410_duplicate_bill_check_WriteLatency_Count #jmx指标白名单 blacklist":"" # 黑名单,jmx指标的objectname,采集到的指标中需要剔除的指标,逗号分隔 match_metrics_keyword # 指标匹配关键字,过滤出匹配的指标 消息样例及含义说明 { "plugin_id":"sds_jmx", #单位: | 类型:string | 说明:插件名 "metric":[{ "node":"bj-sds-ad-cs21-11-72-43", #单位: | 类型:string | 说明:主机名,消息来源标识 "timestamp":"1532595900000", #单位: | 类型:string | 说明:字符类型时间戳 "cluster_name":"bj-sds-ad-cs21", #单位: | 类型:string | 说明:集群名称 "sds_ip_id":"xxx.0.0.1", #单位: | 类型:string | 说明:采集进程的主机IP "sds_port_id":"7199" #单位: | 类型:string | 说明:采集进程的主机端口 "ColumnFamily_app20170410_duplicate_bill_check_WriteLatency_Count":"337727861", #单位: | 类型:string | 说明:jmx指标及指标值 }] }
  • dcs 功能说明 按照指定参数执行redis_port脚本,发现端口,并通过端口找到指定的cache文件,将其中的信息转成json格式并上报到HCW。 参数配置 配置样例: discovery_script:/tmp/redis_port.py # redis_port脚本的具体路径 result_path:/tmp/redis_{#REDIS_PORT}.cache # 保存redis信息的cache文件的路径 脚本支持指标返回非数字型字符串,对于需要采集的指标例如rgb_last_bgsave_status, 如果脚本返回结果为ok,插件会将指标变更为rgb_last_bgsave_status_var, 且上报值更改为1。 消息样例及含义说明 { "plugin_id":"dcs", #单位: | 类型:string | 说明:插件名 "metric":[{ "node":"", #单位: | 类型:string | 说明:主机名,消息来源标识 "timestamp":"1532595900000", #单位: | 类型:string | 说明:字符类型时间戳 "uptime_in_days":"158", #单位: | 类型:string | 说明:指标值 "port_id":"6379" #单位: | 类型:string | 说明:端口 "loading":"1" #单位: | 类型:string | 说明:是否正在载入持久化文件,0为否,1为是 "used_memory":"36864" #单位: | 类型:string | 说明:Redis分配器分配的内存总量 "nstantaneous_ops_per_sec":"7" #单位: | 类型:string | 说明:服务器每秒中执行的命令数量 "latest_fork_usec":"0" #单位: | 类型:string | 说明:最近一次fork()操作耗费的时间 "rdb_last_bgsave_status_var":"1" #单位: | 类型:string | 说明:最后一次创建RDB文件的结果,0为失败, 1为成功 "client_biggest_input_buf":"0" #单位: | 类型:string | 说明:当前连接的客户端中,最大的输入缓存 "client_longest_output_list":"0" #单位: | 类型:string | 说明:当前的客户端连接中,最长的输出列表 "rdb_last_bgsave_time_sec":"0" #单位: | 类型:string | 说明:最后一次创建RDB文件耗费的秒数 "expired_keys":"79118" #单位: | 类型:string | 说明:过期而被自动删除的数据库键数量 }] }
  • mysql 功能说明 按照指定参数执行mysql脚本,并将采集结果上报到HCW。 参数配置 配置样例: mysql_role # mysql监控脚本入参 script:/tmp/mysql_monitor_1m.sh # mysql脚本路径 upload_interval:60 # mysql脚本采集周期 消息样例及含义说明 { "plugin_id":"mysql", #单位: | 类型:string | 说明:插件名 "metric":[{ "node":"fs-mysql-uniaccount-151-15-105", #单位: | 类型:string | 说明:主机名,消息来源标识 "timestamp":"1532595900000", #单位: | 类型:string | 说明:字符类型时间戳 "vip_ping":"0", #单位: | 类型:string | 说明:浮动IP是否能ping的通 "heartbeat_status":"0" #单位: | 类型:string | 说明:心跳状态 }] }
  • 概览 监控服务概览页如图1所示,展示近7天各级别告警数量、告警列表及关键事件列表等信息。 图1 监控服务概览 告警 - 近7天:展示近7天各级别告警数量。 告警列表 - 近7天:展示近7天严重和紧急级别的告警,可单击“更多”查看对应告警详情。 关键事件列表 - 近7天:展示近7天关键事件,可单击“更多”跳转至“事件列表”页面查看事件详情。 关键体验指标/黄金指标:展示关键体验指标/黄金指标,可以设置查询时间及查询粒度。 XXXX标准指标:展示各标准指标的监控数据,如负载均衡(SLB)标准指标、数据库治理(WiseDBA)标准指标、主机管理服务(VMS)标准指标等,如图2所示。 图2 VMS指标 父主题: 监控服务
  • 更多操作 您还可以对Influxdb汇聚任务进行以下操作。 表1 Influxdb汇聚任务管理 操作名称 操作步骤 编辑任务 在Influxdb汇聚任务列表中,单击待编辑的任务所在行“操作”列的“编辑”。 编辑任务后,单击“更新任务”。 撤销申请 在Influxdb汇聚任务列表中,单击待撤销申请的任务所在行“操作”列的“编辑”。 单击“撤销申请”。 停止任务 在Influxdb汇聚任务列表中,单击待停止的任务所在行“操作”列的“停止”。 删除任务 在Influxdb汇聚任务列表中,单击待删除的任务所在行“操作”列的“删除”。 补数据 在Influxdb汇聚任务列表中,单击待补数据的任务所在行“操作”列的“补数据”。 查看操作历史 在Influxdb汇聚任务列表中,单击待查看操作历史的任务所在行“操作”列的“操作历史”。 查看历史记录 在Influxdb汇聚任务列表中,单击待查看历史记录的任务所在行“操作”列的“历史记录”。 查看执行计划 在Influxdb汇聚任务列表中,单击待查看执行计划的任务所在行“操作”列的“执行计划”。 查看任务详情 在Influxdb汇聚任务列表中,单击待查看详情的任务所在行“操作”列的“详情”。
  • 更多操作 规则创建后,您还可以对规则进行以下操作。 表2 相关操作 操作名称 操作步骤 启用规则 在规则列表,单击待启用的规则所在行“启用状态”列的,当显示为时,表示启用成功。 禁用规则 在规则列表,单击待禁用的规则所在行“启用状态”列的,当显示为时,表示禁用成功。 规则禁用后将不可用。 编辑规则 在规则列表,单击待编辑规则所在行“操作”列的“编辑”。 删除规则 在规则列表,单击待删除规则所在行“操作”列的“删除”。
  • 使用流程 使用演练服务进行故障演练的流程如下图: 创建故障场景库:演练服务管理员提供故障场景库,故障场景库是公共故障场景的集合。 创建产品级演练方案:产品管理员需要创建产品级演练方案。 创建服务级演练方案:服务级演练方案是后续演练执行的具体内容,通过创建演练方案,并为演练方案创建故障场景,完善方案设计。 制定演练计划:将服务级演练方案下需要演练的故障场景按季度进行分配。 创建演练任务并执行演练,演练完成后可以完善演练报告,支持以下演练方式: 场景快速演练:根据场景快速完成演练配置及故障演练。 场景编排演练:场景快速演练不能满足演练要求,可以对故障场景设置编排演练。 创建演练问题(可选):演练服务支持将演练过程中出现的问题进行管理,并通过改进措施跟进处理。 稳定性评估(可选):支持以服务维度和产品维度进行稳定性评估,产品维度评估需要产品管理员权限。
  • 使用场景 跨AZ容灾演练:在云环境中,跨可用区部署是一种常见的容灾架构。这种架构的主要作用是确保在单可用区发生电力、网络或自然灾害等故障时,灾备可用区仍能继续提供服务,从而保证服务的连续性。 服务压力演练:在电商活动或秒杀等高并发场景中,大量的用户访问可能导致关键服务面临极限压力甚至崩溃,进而出现页面卡顿、请求失败等问题,对业务造成严重影响。混沌演习可以帮助您提前发现并规避此类容灾隐患问题。 网络故障演练:在游戏等领域中,一个出色的系统构造对不良的网络状况具有较高的承受力,即使在出现普通的网络波动时,也能让用户几乎没有任何感知。在中等网络故障发生时,系统应具备自我调整的能力。而在严重的网络故障情况下,系统不应完全失去可用性。为了确保用户的体验,不良网络保障、预加载、节点加速以及并发调度等服务的容灾能力必须达到极致。
  • 产品优势 丰富的故障模式库:涵盖了网络和数据库等多种对象的故障注入场景,包括IaaS、Paas、Saas等近80+故障原子能力。您可以在一次演练中灵活组合和编排多个故障动作,同时支持自定义动作脚本注入,满足您的业务个性化需求。 典型的行业经验模板:我们将华为云的内部实践和典型用户场景转化为行业经验模板,供您快速复用,极大提高了演练效率。我们提供了电商、游戏、多媒体等多个行业的演练方案供您选择,覆盖了跨可用区容灾演练、服务压力演练等多个典型应用场景。同时,我们还支持用户建立自定义场景库,快速创建演练任务,让您的操作更加高效。 高效的可视化演练:演练对象选择以及故障注入过程可视化,让您对演练过程一目了然,降低操作门槛。在选择演练对象时,您可以实时预览实例资源分布视图,降低出错概率。演练中,我们会展示实例资源分布视图(子网、可用区、对象类型等),帮助您精准控制爆炸半径,保障演练安全。此外,故障动作组可视化编排,让您在演练过程中可以实时查看故障注入状态和注入效果,降低操作成本。 可靠的安全防护策略:我们支持配置监控指标,让您在演练过程中观察稳态指标变化,系统变化实时感知。同时,我们还支持配置告警策略,当安全护栏触发后会自动停止演练,让您更加放心地进行演练。此外,平台支持一键终止演练、超时回滚等功能,全方位保障业务安全。我们还依托权限管控机制,实现了精细化演练权限管理。 完备的演练报告:演练结束后,支持生成演练报告的功能,帮助您进行演练复盘和记录问题。演练报告内容涵盖基本信息、数据统计、实例资源可视化分布图、演练执行日志等详细信息。 实现混沌工程自动化:具备80多种故障注入方法,全方位模拟各种故障,预定义50多种故障演练场景,支持业务快速演练。 演练过程全自动化:支持每天上百次演练,全范围发现应用稳定性死角。
  • 更多操作 您还可以对Hive进行以下操作。 表1 Hive管理 操作名称 操作步骤 导入 在Hive页面单击“导入”。 上传文件。 查看导入进度 在Hive页面单击“查看导入进度”。 导出 在Hive页面列表中,勾选需要导出的Hive表。 单击列表上方的“导出”。 查看临时查询历史 在Hive页面单击“临时查询历史”。 在Query History页面查看临时查询历史。 编辑Tags 在Hive页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 在Hive页面列表中,单击待关联Tags表所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 说明: 关联Tags之前须先编辑并新建Tags。 编辑Hive表 在Hive页面列表中,单击待编辑Hive表所在行的“编辑”。 删除Hive表 在Hive页面列表中,单击待删除Hive表所在行的“删除”。 查看操作历史 在Hive页面列表中,单击待查看操作历史的Hive表所在行的“操作历史”。 查看历史版本信息 在Hive页面列表中,单击待查看历史版本信息的Hive表所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • file_check 功能说明 查看文件是否存在以及查看文件的大小,以Byte为单位,将结果上报到HCW。 参数配置 配置样例: path:/tmp/error_*.log #路径为绝对路径,支持通配符。 消息样例及含义说明 { "plugin_id":"file_check", #单位: | 类型:string | 说明:插件名 "metric":[{ "node": " host-10-22-0-170", #单位: | 类型:string | 说明:主机名,消息来源标识 "timestamp": "1518078026000", #单位: | 类型:string | 说明:字符类型时间戳 "exists":"1", #单位: | 类型:string | 说明:文件是否存在,1表示存在,0表示不存在 "size":"80", #单位:Byte | 类型:string | 说明:表示文件大小 }] }
  • scriptcollet 功能说明 执行脚本命令或者读取指定文件内容,并将结果上报给HCW。 参数配置 配置样例: type:script # 采集方式,可选填 script(采集脚本)或者 path(采集文件)。 ex_path:/opt/huawei/monitor/disk.sh # 脚本执行路径或者采集文件路径。 _filter_key_id:/opt/huawei/monitor/disk.sh # 多实例插件的key,此参数是为了支持多实例插件上报使用,只需要保证多个实例中该值均不同,建议与ex_path值保持一致。 scriptcollect为多实例插件,即scriptcollect插件可以配置多组参数,但需要每组参数均不相同。 消息样例及含义说明 { "plugin_id":"scriptcollect", #单位: | 类型:string | 说明:插件名 "metric":[{ "node": " host-10-22-0-170", #单位: | 类型:string | 说明:主机名,消息来源标识 "timestamp": "1518078026000", #单位: | 类型:string | 说明:字符类型时间戳 "key_id":"/opt/huawei/monitor/disk.sh", #单位: | 类型:string | 说明:对应模板配置的key值 "collect_value":"80", #单位: | 类型:string | 说明:执行脚本命令或者读取指定文件内容上报的值 }] }
  • 运维面临的问题 快速迭代对稳定性持续冲击,业务上线速度和现网稳定性之间存在冲突,发布周期变短,可能存在每个版本都没有经过充分的现网验证。 各业务基于开源软件或者基于AOM、LTS、 APM 等自己构建,运维组织、人员能力及知识体系需要快速发展,无统一的数据接入、监控、诊断、 数据治理 体系,各工具能力参差不齐。 系统整体可用性依赖全栈可用性,运维人员需要利用数据被动变主动,及时发现问题,精准定位问题。 内部运维人员的操作可能带来业务安全的不确定性,外部安全攻击渗透频率日趋增多,攻击技术手段越发高超,数据泄露代价更大。
  • 运维中心的优势 简化运维管理:使用AppStage运维中心可以集中管理和监控所有的IT资源和服务,大大简化了运维管理的复杂性。通过统一的Console,SRE可以轻松地管理服务器、数据库、网络和应用等各个方面,实现应用生命周期 数据可视化 ,避免数据孤岛。 提高运维效率:AppStage运维中心提供了自动化的运维流程和任务调度功能,可以自动执行常见的运维任务,如监控、巡检和故障处理等,节省SRE大量的时间和精力,让运维团队能够更专注于解决重要的问题和提供高价值的服务。 实现故障快速恢复:AppStage运维中心具备强大的故障监测和自动恢复能力,当系统出现故障或异常时,AIOps可以及时发现并采取相应的措施进行修复,最大限度地减少停机时间和业务中断,减轻可能出现的业务损失和客户流失。 提供实时监控和报告:AppStage运维中心集成了丰富的监控和报表功能,可以实时监控系统的性能指标、资源利用率和安全状态等。通过可视化的报表和图表,SRE可以随时了解系统的运行情况,进行及时的决策和调整。同时,这些信息也可以用于向上级管理层的汇报和运维成果展示。 降低运维成本:AppStage运维中心沉淀了华为在运维领域的管理经验,包括集成了简洁高效的运维流程,提高自动化和智能化水平,在各个环节提升效率,减少人力投入。基于人工智能技术提供数据分析,优化资源配置,预测未来需求,以降低IT资源成本。企业将应用迁移至华为云后,通过AppStage运维中心来自主管理和运维,可以自然使用上述能力获得成本优势。 提高运维安全性:AppStage运维中心通过身份验证、访问控制和加密等技术,保护企业应用不受攻击、侵入、干扰和破坏,确保客户数据的安全性和完整性,同时通过自动化变更、操作防呆等减少SRE的误操作风险。
  • 更多操作 您还可以对 CSS 进行以下操作。 表2 CSS管理 操作名称 操作步骤 导入 在CSS页面单击“导入”。 上传文件。 查看导入进度 在CSS页面单击“查看导入进度”。 导出 在CSS页面列表中,勾选需要导出的CSS索引。 单击列表上方的“导出”。 编辑Tags 在CSS页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 编辑并新建Tags后,在CSS页面列表中,单击待关联Tags索引所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 查看索引状态 在CSS页面列表中,单击待查看状态的CSS索引所在行的“索引状态”。 编辑索引 在CSS页面列表中,单击待编辑CSS索引所在行的“编辑”。 删除索引 在CSS页面列表中,单击待删除CSS索引所在行的“删除”。 查看操作历史 在CSS页面列表中,单击待查看操作历史的CSS索引所在行的“操作历史”。 查看历史版本信息 在CSS页面列表中,单击待查看历史版本信息的CSS索引所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • 步骤三:创建视图 单指标查询视图/多指标组合查询视图 如果需要在大盘监控单个指标的报表(如折线型报表),可以创建单指标查询视图。 如果需要在大盘同时监控多个指标(如表格型报表),可以创建多指标组合查询视图。 在“指标仓库”页面,选择需创建视图的逻辑主体,然后单击“新建查询视图”,如图1所示。 图1 新建查询视图 配置查询视图参数,如表3所示,配置完成后,单击“保存”。 表3 新建查询视图参数说明 参数名称 参数说明 类型 视图类型默认为“QUERY”,不可修改。 数据源 选择视图使用的数据表。 英文名称 视图英文名,尽量使用英文简写,不超过50个字符,单词之间使用下划线分隔。 中文名称 视图中文名,不超过20个字符。 描述 输入视图描述内容。 指标 选择需要计算的指标,可选择单指标或者多个指标。 projection 选择是否开启projection。 持久化视图/长期存储视图 持久化视图(自定义汇聚粒度)、长期存储视图(依次执行5分钟、1小时、1天汇聚粒度)可以持久化查询结果。这两种视图需要在查询视图的基础上进行创建。 在“指标仓库”页面,选择需创建视图的逻辑主体,默认显示“关系图模式”,可以单击页面已创建的指标或视图,弹出“指标”页面或“视图”页面。 也可以单击“列表模式”,切换至“列表模式”,在指标列表单击对应指标所在行的“查看详情”,弹出“指标”页面;或者单击“视图”,在视图列表单击对应视图所在行的“查看详情”,弹出“视图”页面。 在“指标”页面,选择已创建的单指标视图或多指标视图,单击视图的“操作”,在下拉列表中选择“创建持久化视图”或者“创建长期存储视图”,如图2所示。 或者在“视图”页面,单击“创建视图”,在下拉列表中选择“创建持久化视图”或者“创建长期存储视图”,如图3所示。 图2 指标详情页 图3 视图详情页 配置如下视图参数,配置完成后,单击“创建”。 配置Basic参数,具体参数如表4所示。 表4 Basic参数说明 参数名称 参数说明 英文名称 视图英文名,尽量使用英文简写,不超过50个字符,单词之间使用下划线分隔。 中文名称 视图中文名,不超过20个字符。 任务名称 汇聚的任务名,默认与视图名一致。 描述 输入描述信息。 类型 根据选择创建的视图类型显示,持久化视图为PERSISTENT,长期存储视图为LONG_TERM。 任务类型 根据视图数据来源显示,不可修改。 调度集群 选择定时调度集群。 执行集群 选择执行汇聚的执行集群。 MPPDB执行集群 (长期存储视图包含该参数)选择执行分钟级、小时级、天级MPPDB汇聚的执行集群。 查询范围 设定任务查询时间范围,不填则默认每分钟执行一次。 例如设置为1小时,则查询时间区间为当前时间减1小时到当前时间(前闭后开)。 Auto Round 设置任务执行时间是否舍去分和秒,默认为“是”。 例如汇聚周期是1小时,那么不管是2:10,还是2:40触发任务,汇聚周期都会自动变为1:00~2:00;如果选否,那么汇聚周期就是1:10~2:10,以及1:40~2:40。 调度(固定时间) 让任务在固定时间执行,一般天级任务会修改此值,例如修改为每天2点执行,不涉及无须选择。 例如设置3小时40分钟,则每天3点40执行任务;设置24小时40分钟,则每天0点40执行任务。 调度(固定间隔) 设置执行任务的时间间隔,一般是小时任务和分钟任务会修改此值,不涉及无须选择。 例如设置6小时,则每6小时执行一次,即0点、6点、12点、18点执行;配合固定时间调度,间隔时间配置为6小时,固定时间配置为10分钟,则每天的0:10、6:10、12:10、18:10执行。 汇聚时间提前 设置汇聚任务执行时选择之前的时间段。 例如汇聚时间提前1小时,每次查询的时间范围自动往前偏移1小时;当查询范围是小时、天的时候,一般不需要配置;分钟汇聚任务,由于延迟原因,一般都需配置。 结果时间偏移 设置汇聚出的结果存入输出表的时间值。 例如结果时间偏移1小时,每次查询的数据存入MPPDB数据库的timestamp自动增加1小时。 配置Rule参数,具体参数如表5所示,配置完成后,单击“Build Statement”。 表5 Rule参数说明 参数名称 参数说明 表类型 默认显示视图数据表类型。 数据源 选择需要汇聚的数据表。 从数据源列表 分表场景时使用,如果选中了数据源A和从数据源列表B,会优先从B表匹配维度。 Indicators 选择汇聚任务需要计算的指标列表。 Order By 选择需要排序的维度。 limit 设置查询返回值个数,上限为200000。 分组维度 选择需要Groupby的维度。 配置Output参数,具体参数如表6所示。 表6 Output参数说明 参数名称 参数说明 输出表类型 选择存放汇聚结果的表(输出表)类型,默认为MPPDB。 集群名 选择输出表所在的集群名。 数据库名 选择输出表所在的数据库名。 表名 选择输出表的表名,选择前需要创建MPPDB表。 列名 选择输出表的所有列名。 查询结果列 汇聚结果的列名。 Column Mappings 根据输出表(MPPDB)选择对应的查询结果列。 单击已创建的持久化视图或长期存储视图,在“视图”页面单击“Start Task”,启动第一层任务。保证期望状态和实际状态都为“Running”,如下图图4所示。 图4 启动任务 单击“Create Hourly Task”,会自动创建小时级的MPPDB汇聚任务和表(TTL 默认1年),自动将5分钟级别的数据roll up成小时级的。再单击“Start Hourly Task”启动该任务,保证期望状态和实际状态都为“Running”。 单击“Create Daily Task”,会自动创建天级的MPPDB汇聚任务和表(TTL 默认2年),自动将小时级别的数据roll up成天级的。再单击“Start Daily Task”启动该任务,保证期望状态和实际状态都为“Running”。
  • 步骤二:创建指标 在“指标仓库”页面,单击已创建的逻辑主体。 单击逻辑主体页面的“新建指标”,选择“新建单个指标”。 配置指标参数,参数说明如表2所示,配置完成后,单击“创建”。 表2 配置指标参数说明 参数名称 参数说明 类型 选择指标类型。 英文名称 自定义英文名称。 中文名称 自定义中文名称。 指标等级 选择指标等级。 描述 输入描述信息。 开放名称 - 指标类型 根据指标的类型分为RequestCount、DelayTime、SuccessRate、FailureRate、Speed、Bandwidth。 逻辑主体 选择指标来源的逻辑主体。 标签列表 - 指标责任人 - 开放状态 - 抽象指标 - 是否多聚合字段 - 聚合类型 选择指标的统计方式。 聚合字段 指标的度量对象。 过滤器 依据业务限定条件,给指标设置过滤规则,支持AND、OR多层嵌套过滤条件,节点类型为NODE。 举例:有5个过滤条件ABCDE,过滤条件汇总后为(A AND B)OR (C AND D AND E),ABCDE即为NODE节点。
  • 方案优势 云下IDC侧的业务网络互访很多是通过IP地址而非域名,上云前如果改造IDC侧网络,会导致上云周期延长、迁移期间业务中断,并且网络改造往往增加运维成本。 使用企业交换机后,上云不用修改IDC侧IP地址,减少业务对环境感知,加快上云进度。 云下IDC侧的每个子网通常承载几十种不同的业务,如果按照子网粒度进行迁移,几十种业务一次性上云存在较大风险,无法满足业务连续性需求。 使用企业交换机后,按照“虚拟机”粒度迁移上云,支持业务系统灰度上云,应对核心业务分批上云,避免业务在迁移过程中受损,减少上云风险。
  • 约束与限制 对于使用 虚拟专用网络 (VPN)对接企业交换机的场景,请您先提交工单给虚拟专用网络服务,确认您的虚拟专用网络是否支持和企业交换机进行VXLAN对接,如果不支持,需要联系客服开通虚拟专用网络的对接企业交换机能力。 对于使用云专线(DC)对接企业交换机的场景,请您先提交工单给云专线服务,确认您的云专线是否支持和企业交换机进行对接,如果不支持,需要联系客服开通云专线的对接企业交换机能力。 如果您的IDC需要与华为云企业交换机对接来建立云下和云上二层网络通信,那么IDC侧的交换机需要支持VXLAN功能。以下为您列举部分支持VXLAN功能的交换机,仅供参考。 华为交换机:Huawei CE58、CE68、CE78、CE88系列支持VXLAN,例如CE6870、CE6875、CE6881、CE6863、CE12800。 其他厂商交换机:例如Cisco Nexus 9300、 锐捷RG-S6250、 H3C S6520。
  • 方案架构 华为云支持通过企业交换机(Enterprise Switch,ESW) 构建客户IDC和云上二层网络互通,在二层网络内,实现主机粒度迁移,助力客户IDC迁移上云期间业务不中断,不修改IP地址的诉求。 通过企业交换机迁移IDC的组网示例如图2所示,本示例中将IDC内的VM-B在不修改IP的前提下,迁移到云上。迁移过程说明如下: 使用云专线或VPN建立云上与云下IDC隧道子网之间的三层网络通信。因为企业交换机建立二层通信网络时,依赖隧道子网之间的三层网络。 创建企业交换机、建立二层连接、配置VXLAN交换机,建立云上与云下IDC的二层网络通信。 将主机VM-B(10.0.1.8)迁移到云上ECS-B(10.0.1.21),检查好VM-B和ECS-B的网络通信后,待业务低谷时期关闭IDC内的VM-B。 短暂关闭VM-B时,业务主要由IDC内的VM-A(10.0.1.131)承载,因此不会中断业务。 此处为了验证VM-B和ECS-B之前的正常通信,刚迁移上云的ECS-B和VM-B的IP地址不能一样,否则无法正常通信。 关闭IDC内的VM-B后,将云上的ECS-B地址由10.0.1.21改为10.0.1.8,此时业务流量会通过企业交换机转发到云上的ECS-B处理,确保迁移后不改变主机IP地址。 同时,云上的ECS-B和IDC内的VM-A也可以自由互访,就像还位于同一个子网中。 图2 企业交换机迁移组网
共100000条