华为云用户手册

  • 数据标准设计 数据标准(Data Standards)是进行数据标准化的主要依据,构建一套完整的数据标准体系是开展数据标准管理工作的良好基础,有利于打通数据底层的互通性,提升数据的可用性。 数据标准是指保障数据的内外部使用和交换的一致性和准确性的规范性约束,是对数据的名称、含义、结构、取值等信息的统一定义和规范,以达成对数据的业务理解、技术实现的一致。 数据标准管理是指数据标准的制定和实施的一系列活动,包括明确组织职责和制度规范、构建工具、制标和落标等。通过统一的数据标准制定和发布,结合制度约束、系统控制等手段,实现数据的完整性、有效性、一致性、规范性、开放性和共享性管理,为数据资产管理提供管理依据。 数据标准是进行数据标准化的主要依据,通过数据标准化,有利于拉通数据,有效提升业务效率和数据质量、促进数据共享。 提升业务效率:数据标准统一了业务语言,明确了业务规则,规范了业务处理过程,从而提升组织整体业务效率,满足管理决策对信息及时性的要求。 提升数据质量:数据标准明确了数据填写及处理要求,规范了数据源的格式,同时提供了管控方面的保障,因此数据标准将直接提高数据质量。 促进数据共享:数据标准统一了各类系统的数据定义,降低了系统间集成的复杂度,提高了系统间交换效率,并为管理分析系统提供了一致的分析指标和分析维度定义。
  • 分层Mapping设计 在 数据仓库 和ETL(抽取、转换、加载)领域中,"mapping" 指的是一种规则和逻辑的集合,用于描述如何从源数据抽取、转换和加载到目标数据仓库中的过程。映射定义了源系统中的数据如何映射到目标系统中,以满足数据仓库的数据需求和分析目标。 做Mapping的目的如下: 数据转换: 数据从源系统到数据仓库的过程中,往往需要进行各种数据转换,包括单位转换、日期格式标准化、数据清洗、计算等。编写映射可以明确这些转换规则,确保数据在转换过程中的准确性和一致性 数据整合: 数据仓库通常集成来自多个不同源系统的数据,这些数据可能具有不同的格式和结构。编写映射可以将这些不同的数据整合到一个统一的数据模型中,以便进行分析和报告 数据质量: 数据质量是数据仓库的关键因素之一。编写映射时,可以实施数据清洗、去重、标准化等步骤,从而提高数据的质量,减少错误和不一致性 业务逻辑应用: 在数据仓库中,可能需要应用特定的业务逻辑,例如计算指标、创建层级等。通过编写映射,可以确保这些业务逻辑在数据加载过程中得到正确的应用 性能优化: 编写映射时,可以考虑性能问题,使用合适的索引、分区等方法,以提高数据加载和查询性能 文档和可维护性: 编写映射规则和逻辑可以帮助团队成员理解数据转换和加载的过程。这些文档可以作为日后维护和调整的参考 可复用性: 编写映射可以将数据转换规则和逻辑进行抽象和封装,从而实现可复用性,减少重复劳动
  • 技术指标设计 业务指标用于指导技术指标,用于定义指标的设置目的、计算公式等,并不进行实际运算,可与技术指标进行关联。而技术指标是对业务指标的具体实现,定义了指标如何计算。在华为的 数据治理 方法论中,技术指标直接关联到业务目标,通过将业务需求翻译为可操作的技术指标,确保数据质量和系统性能达到支持业务决策和运营的水平。这种转化过程将抽象的业务需求转变为具体的度量标准,如数据准确性、数据完整性、数据可用性等,以此来量化业务的影响。这种紧密的关联确保了技术指标的有效性,从而为数据质量的实际提升提供了清晰的路径。通过业务指标与技术指标之间的相互转化,华为能够更加有针对性地设计和执行数据治理策略,实现数据对业务的支持和驱动。 根据华为数据治理方法论,技术指标包含:原子指标,衍生指标,复合指标: 原子指标=业务 + 业务过程 + 度量 衍生指标=修饰词 + 业务规则 + 原子指标 复合指标=计算规则 + 衍生指标 / 原子指标
  • 数据管理成熟度评估 数据管理成熟度评估是一种基于能力成熟度模型框架的能力提升方案,描述了数据管理能力初始状态发展到最优化的过程。成数据管理成熟度模型通过描述各阶段能力特点来定义成熟度的级别。当一个组织满足某阶段能力特征时,就可以评估其成熟度等级,并制订一个提高能力的计划。它还可以帮助组织在等级评估的指导下进行改进,与竞争对手或合作伙伴进行比较。在每一个新等级,能力评估会变得更加一致、可预测和可靠。 数据管理成熟度评估将组织内部数据能力划分为数据政策与流程、数据组织、数据标准、数据架构、数据应用、数据质量、主数据、元数据管理、数据安全等9大能力域。每个能力域下面又分为不同的子能力域,共计28个子能力域;每个评估细项按照5个等级模型进行评估,综合平均后计算出整体数据管理成熟度。数据管理成熟度评估成熟度评估等级如下: 图2 评估等级 数据管理成熟度评估对企业有巨大的意义: 准确把握现状:通过数据管理成熟度评估对组织数据管理的现状进行全面分析,总结当前数据管理工作的优势和劣势 明确建设方向:通过数据管理成熟度评估明确数据治理的薄弱项以及和业界标杆的差距,结合企业数字化发展需求,识别亟待完善的数据管理能力,明确数据管理工作的建设方向 持续提升管理水平:将评估结果纳入企业数字化转型考核评价体系,定期对组织及其下属单位进行评价考核,实现数据管理能力持续提升
  • 数据现状调研 调研目的 除了对客户进行业务调研外,数据管理实施专业服务在前期还需要进行数据调研,目的在于了解客户当前数据的质量、一致性、可信度和可用性。以某零售行业客户为例,具体的调研目标可能包括以下几个方面: 了解客户整体数据资产及其关系:通过调研,可以深入探究客户不同业务系统间的数据资产,并揭示数据之间的相关性和相互影响。 识别并改进数据质量问题:调研过程能够识别客户的数据质量问题,包括数据准确性、完整性、时效性等,并针对这些问题提出具体的改进措施。 评估数据治理成熟度:通过对组织的数据治理能力进行深入评估,确保公司的数据管理能力符合不断复杂化和快速变化的市场需求,以及相关的法律法规要求。 明确数据治理的目标与策略:通过数据调研,帮助确定客户的数据治理目标和策略,涵盖数据采集、处理、存储、分析等各个方面的具体需求和目标。 调研方式 数据调研的方式涵盖访谈交流、数据探查、实地考察、集体研讨等多种方法,用以深入了解客户的数据现状。以某零售行业客户为例,数据调研的具体内容包括: 访谈交流: 通过有针对性的沟通了解数据现状,调研对象分为: 研发侧人员:深入了解整体数据体系、主数据、数据性能、数据质量和数据标准现状,收集相关数据问题。 业务侧人员:与运营和门店店主沟通,以理解业务对数据的需求,并提出针对性建议。 数据探查:包括数据血缘和数据质量探查,涉及系统间调用、作业依赖、存储过程依赖、数据表关系、代码字段、数据一致性、数据完整性和数据准确性等方面的分析。 实地考察:实地考察客户总部办公大楼和门店,与不同岗位的人员深入交流,了解各方面的核心诉求。 集体研讨:包括调研会议、赋能会议、联合周例会等,确保项目的协同和效率。 整体调研不仅需要借鉴华为的数据治理实践经验,同时也要参考国内外广泛应用的管理体系,旨在为深入理解客户的数据现状和解决存在的问题提供坚实的支持。这样全面而系统的调研方法确保了项目的专业性和实用性,对客户的持续发展具有积极推动作用。
  • 业务现状调研 调研目的 一般情况下,数据管理实施专业服务开展工作的第一步都是从调研开始的。考虑到数据使能方案往往需要拉通业务与IT,因此调研工作需要并行向业务和数据开展。本章节先讲解业务调研。 业务调研的目的在于深入了解客户的核心业务流程、需求、挑战和目标,以某零售行业客户为例,具体的调研目标可能包括以下几个方面: 分析客户的核心业务流程和组织结构,理解客户的业务模式。 识别业务中的关键挑战和机会,为业务优化提供方向。 明确业务目标和战略方向,为业务增长提供支持。 调研方式 业务调研的方式涵盖访谈交流、现场观察、市场分析和竞争对手研究等多种方法,用以深入了解客户的业务现状。以某零售行业客户为例,具体内容可能包括: 访谈交流: 通过有针对性的沟通了解业务现状,调研对象分为: 管理层人员:深入了解客户企业战略和发展方向,理解客户在当前市场中的定位和竞争态势,了解客户的组织结构与管理流程等。 业务侧人员:调研客户日常业务的流程和效率,了解客户业务当前的需求,以及周边对客户产品或服务的满意度。 实地考察:实地考察参观客户的零售门店或工厂,观察实际运营流程。与不同岗位的人员深入交流,了解各方面的核心诉求。 市场分析:通过市场报告、行业分析等方式,了解客户相关的市场趋势、竞争态势;分析主要竞争对手的业务模式和战略,评估客户在市场中的地位。 集体研讨:包括调研会议、赋能会议、联合周例会等,确保多方面的信息汇聚达成一致。
  • 源系统数据库表盘点 在数据现状调研过程中,需要对源系统数据库表进行盘点,来实现以下几个目的: 了解客户的数据资产。通过盘点清楚地知道客户拥有哪些数据库、表、字段等数据资产,以便为客户提供相关的数据服务。 分析数据资产的状态。通过分析源端系统库表的结构、属性、关系等,可以了解数据资产的完整性、一致性等状态,有利于后续的数据整合和应用。 识别数据重合和冗余。通过比较不同源端系统库表之间的结构和内容,可以识别出数据重合和冗余的情况,为后续的数据整合提供依据。 评估数据质量。通过对源端系统库表的内容和结构进行审查,可以初步评估数据的质量,识别缺失和错误的数据。 确定数据整合和迁移方案。了解源端系统库表的情况,可以帮助确定最佳的数据库整合和数据迁移方案,以实现数据的同源共享。 为数据应用提供依据。了解源端系统库表的详细情况,可以为后续的数据分析和应用提供依据,帮助构建有效的数据模型和架构。 在盘点动作执行前,需要客户提供所要盘点的数据库IP地址、数据库端口号、数据库名称以及至少有源库表和视图只读权限的账号。 对源系统盘点的方法有很多,例如Haydn平台交付中心的探源功能,可以通过配置相应的探源规则,对待集成的源端系统数据进行探源,方便用户快速获取到要进行数据实施的源系统数据结构,且支持基于探源结果生成入湖清单。
  • 数据应用集成设计与实施 图1 数据应用集成设计与实施 数据应用集成设计与实施作为数据管理实施专业服务中的一个非必选项,主要面向客户数据消费场景多,IT能力弱的场景提供服务。工作内容包括数据应用集成实施和数据应用内容开发,将多个数据应用进行打通组合,或针对特定业务场景进行报表设计与开发。这部分工作偏向于IT侧和业务应用侧,不属于数据平台上线的必要条件。 数据应用集成实施: 数据应用集成实施的目标是将多个数据应用进行打通组合,以实现数据的无缝流动和共享。这涉及到将不同的数据应用系统进行整合,确保它们能够相互协作,实现数据的互通。通过数据应用集成实施,企业可以消除数据孤岛,提高数据的可访问性和可用性,从而更好地支持业务决策和运营。 数据应用集成实施还包括针对特定业务场景的报表设计与开发。通过深入了解客户的业务需求和数据消费场景,数据应用集成团队可以设计和开发定制化的报表,以满足客户对数据分析和可视化的需求。这些报表可以帮助客户更好地理解和利用数据,支持业务决策和业务优化。 需要注意的是,数据应用集成实施更偏向于IT侧和业务应用侧,而不是数据平台上线的必要条件。它主要关注数据的整合和应用,以提供更好的数据支持和业务价值。因此,在数据应用集成实施过程中,需要密切协作的是IT团队、业务应用团队和数据管理团队,以确保数据的有效集成和应用。 综上所述,数据应用集成实施是数据管理实施中的一个重要环节,它通过整合数据应用系统和开发定制化报表,为客户提供数据的无缝流动和共享,以支持业务决策和优化。在实施过程中,需要充分协作和沟通,确保数据的有效整合和应用。 父主题: 数据治理实施专业服务
  • 数据集成作业开发 数据集成作业开发是数据使能解决方案中的重要环节,它涉及将不同数据源的数据整合、转换和传输到目标系统的过程。在华为云数据使能解决方案中,提供了多种数据集成技术栈,以满足不同场景的需求。 对于批量数据集成,推荐使用华为云的 CDM (Cloud Data Migration)服务。CDM支持多种数据源和目标数据库,可以实现批量数据的迁移和同步。通过可视化界面和配置,用户可以快速设置数据源和目标数据库的连接,并进行数据映射和转换,实现高效的批量数据集成。 对于实时数据集成,提供了多种技术和工具。DRS和CDL可以实现实时数据流处理和传输,支持多种消息协议和数据格式。Kafka和Flink是流式处理框架,可以实现异步消息传递和解耦,具有低延迟和高吞吐量的数据处理能力。IIoT则专注于工业物联网领域的实时数据集成和处理。 对于非结构化数据集成,提供了OBS和FTS。OBS可以用于大规模文件的传输、同步、存储和访问,支持多种文件格式和存储策略。FTS则提供了高速的文件传输服务,可以快速传输大文件和大量文件。 此外,还提供了API集成的解决方案。Roma和数据服务可以帮助用户进行API数据集成、管理和发布。它们提供了安全、高性能的API访问控制和管理功能,使用户能够轻松构建和管理API接口。 在数据集成作业开发过程中,华为云的数据集成服务提供了可视化的快速配置和专业的支持服务,大幅降低了学习成本。用户可以根据具体的需求选择适合的数据集成技术栈,并通过配置和定制来实现高效、可靠的数据集成作业。这将帮助用户实现数据的整合和流动,为业务计算和应用提供可靠的数据基础。
  • 服务部署设计 在为客户进行服务部署设计时,网络架构规划是一个非常重要的环节。一个好的网络架构规划可以提高系统的可用性、性能和安全性,同时还能帮助节省成本。在进行网络架构规划时,除了考虑传统的网络因素外,还需要了解相关的技术架构和云服务。技术架构涉及到系统的整体设计和组件之间的交互方式,而云服务则提供了各种功能和工具来支持应用程序的部署和运行。因此,在进行网络架构规划之前,了解所使用的云服务和技术架构是至关重要的。这样可以确保网络架构与技术架构的协调,从而实现系统的高效运行和优化资源利用。以下是进行网络架构规划时需要考虑的一些关键因素: 需求理解和收集:首先要充分理解和收集客户的业务需求和技术需求,包括应用类型、数据流量大小、性能要求、安全性需求、业务发展预期等。这将为后续的网络架构设计提供基础。 网络拓扑设计:根据需求,设计网络的物理布局和逻辑布局。包括决定网络的层次结构,选择合适的网络设备和技术,规划网络地址和路由,等等。 性能考虑:网络架构需要能够满足客户的性能需求,包括带宽、延迟、吞吐量等。可能需要采用负载均衡、冗余链接、多路径路由等技术来提高性能。 安全规划:网络安全是极为重要的,需要考虑如何防止各种安全威胁,如DDoS攻击、数据泄露等。可能需要使用防火墙、入侵检测系统、VPN、 数据加密 等安全措施。 可扩展性和灵活性:网络架构需要考虑未来的业务增长和技术发展。设计时要考虑到网络的可扩展性和灵活性,以便在不影响现有业务的情况下进行升级和扩展。 成本和ROI:在满足业务需求的同时,还要考虑成本和投资回报率。这包括硬件、软件、维护、升级等各方面的成本。 结合上述关键因素及实际情况,可以给客户提供一个合适的网络架构。下图以本项目为示例,与客户沟通了解到集团正在规划骨干网,因此先期选用VPN接入方式后期转为专线网络,在云上划分一个VPC,该VPC下划分为4个子网分别供给数据接入、数据存储计算、数据服务、数据应用使用。 图2 服务部署设计 完成网络规划后,可根据网络架构展开细化部署架构。
  • 数据集成设计 在数据集成中,针对不同场景可以选择不同的数据集成技术栈。以下是一些常见的数据集成技术栈及其适用场景: 批量数据集成:使用CDM,适用于批量数据迁移和同步,支持多种数据源和目标数据库。 实时数据集成:使用DRS、CDL、Kafka、Flink、IIoT,适用于实时数据流处理和传输以及异步消息传递和解耦,支持多种消息协议和数据格式,低延迟、高吞吐量的数据处理。 非结构化数据集成:使用OBS、FTS,适用于大规模文件的传输、同步、存储、访问,支持多种文件格式和存储策略。 API集成:使用Roma、数据服务,适用于API数据集成、管理、发布,提供安全、高性能的API访问控制和管理功能。 华为云提供多种数据集成服务,针对数据库、文件、消息、API、协议、IOT类数据集成支持可视化快速配置,配套专业服务赋能,大幅降低实施成本。 图3 数据集成设计
  • 资源与成本清单 云服务清单 表1 云服务清单 资源类型 服务 规格 数量 数据治理平台 数据湖 治理中心 (DataArts: Data Governance Center) 企业版:5,000次/天的数据开发调度,附带8作业并发, 最大1.5Gbps带宽的数据集成能力,并且支持管理5,000个技术资产、100个数据模型。 1 数据治理中心 DataArts Studio )技术资产数量增量包 package.da.10k,增加1万张管理数据表规模。 1 数据迁移 DataArts批量数据迁移增量包 (CDM: Cloud Data Migration) cdm.xlarge: 16核/32GB | 10/4 Gbit/s | 100 并发任务 2 数据计算 MapReduce服务 ( MRS : MapReduce Service) 离线集群-MRS Master节点 MRS服务管理费用 *3; 规格:X86计算 | 通用计算增强型 | c6.8xlarge.4 | 32核 | 128GB *3; 系统盘:通用型SSD | 480GB *3; 数据盘:通用型SSD | 200GB *3; 1 离线集群-MRS分析Core节点 MRS服务管理费用 *16; 规格:X86计算 | 通用计算增强型 | c6.8xlarge.4 | 32核 | 128GB *16; 系统盘:超高IO | 500GB *16; 数据盘:超高IO | 600GB | 2个 *16; 1 实时集群-MRS Master节点 MRS服务管理费用 *3; 规格:X86计算 | 通用计算增强型 | c6.8xlarge.4 | 32核 | 128GB *3; 系统盘:通用型SSD | 480GB *3; 数据盘:通用型SSD | 200GB *3; 1 实时集群-MRS分析Core节点 MRS服务管理费用 *4; 规格:X86计算 | 通用计算增强型 | c6.8xlarge.4 | 32核 | 128GB *4; 系统盘:超高IO | 500GB *4; 数据盘:超高IO | 600GB | 2个 *4; 1 数据存储 对象存储服务 (OBS: Object Storage Service) 对象存储 | 标准存储单AZ存储包 | 100TB; 1 数据仓库 数据仓库服务 (DWS: Data Warehouse Service) dwsx2.16xlarge.m7 | 云数仓 | X86 | 64 vCPUs | 512 GB | 3T * 5 节点; 1 数据应用(取决于应用自身需求) 弹性云服务器 (E CS :Elastic Cloud Server) 32GiB|c6s.4xlarge.2 通用计算增强型 16 vCPUs | 32 GB | Ubuntu 20.04 server 64bit 系统盘 高IO 500 GB x 1 数据盘 3 弹性公网IP (EIP:Elastic IP) 弹性公网10 Mbit/s (可选,如需外网访问系统) 2 云数据库RDS (RDS:Relational Database Service) 实例类型:主备 | 数据库引擎版本:MYSQL 8.0 | 性能规格:4 vCPUs | 16 GB | 存储空间:500G | 网络:内网 1 分布式缓存服务 Redis版 实例类型:主备 | 版本:Redis 5.0 | 性能规格:4GB | 副本数:2 | 网络:内网 1 专业服务清单 本案例所涉及的数据管理实施专业服务报价项如下,不同报价项的价格仅供参考,实际以收费账单为准: 表2 专业服务清单 类别 报价项 量纲 数据管理成熟度诊断 数据管理成熟度诊断 套 数据使能信息架构设计 数据使能信息架构设计-基础包 套 数据使能信息架构设计-增量包 套 数据使能技术架构设计 数据使能技术架构设计 套 数据使能技术平台集成实施 数据使能技术平台集成实施 套 IT数采集成实施 套 OT数采集成实施 套 数据使能方案设计 数据湖治理方案设计-基础包 套 数据湖治理方案设计-增量包 套 ITOT融合方案设计 套 数智融合方案设计 套 数据使能方案实施 数据湖治理方案实施-基础包 套 数据湖治理方案实施-增量包 套 ITOT融合方案实施 套 数智融合方案实施 套 数据应用集成设计与实施 数据应用集成设计与实施 套
  • 方案优势 丰富的多维数据 提供18类、216个接口、300+多维度信息的API,向场景化需求提供关键数据查询的能力。帮助客户做出更明智的决策,提高效率,降低风险。 数据查询毫秒级响应 基于华为云构建资源层高效、智能的IaaS和PaaS底座,调用接口后响应速度极快,均值在300~500毫秒左右。 7*24h稳定调用 API接口支持7*24小时稳定调用,全年稳定正常服务时长超过99.97%。 专业服务 具备专业的售前&售后&交付团队,全程平稳对接。
  • 应用场景 天眼查可提供多样性解决方案,助力政府、机构、企业客户在自建风控、拓客、供应商管理系统等应用场景提升决策确定性。企业可使用天眼查数据自建业务平台,基于云端百种数据接口,按需调取,快速搭建自己的商业数据库,满足企业实现低成本、高效调用数据的需求。具有全维度数据、稳定及时、安全准确、赋能多业务场景的核心特征。 在金融领域,可应用于信用风险评估、合规性检查等场景。以协助实现评估信用风险,获得综合的信用评级和风险报告,准确判断借款人信用;快速检查合规性和背景,减少合规风险,确保客户符合法规和合规要求。 互联网领域: 可应用于目标客户群识别、合作伙伴选择等场景。 可针对自身产品或服务,通过企业相关数据,识别并确定目标客户群;评估合作伙伴(如店家/供应商)的实力和信誉,以推动业务发展。 政府税务领域: 可应用于纳税信息核实、逃税风险监测、等场景。帮助核实企业的纳税信息,确保企业的税务申报准确性和合规性。监测企业是否存在逃税行为,提高税收征管效果;在政府审计领域,可应用于信息获取与验证、风险评估、监管合规等场景。以获取准确、全面的企业财务、交易和经营数据,以验证企业账务的真实性和完整性。及时了解企业的风险暴露,包括财务风险、合规风险等,帮助确定审计的重点领域。监测企业是否遵守法律法规,确保企业在经营过程中合规运营。在检法司领域可应用于犯罪调查、资产追踪等场景,以获取企业的经济和金融信息,协助检法司揭示经济犯罪行为,支撑犯罪调查。或协助追踪犯罪嫌疑人的资产和交易活动,帮助资产追缴和赔偿。 智能制造领域: 可应用于供应链管理场景,以评估潜在供应商的信誉、财务状况和供应链稳定性。需要分析供应应商的信用评级、财务数据和历史表现,协助企业做出合适的供应链决策,减少供应链风险。 客户的痛点: 痛点一:数据准确性不足,从互联网直接爬取的数据无法支撑决策;收集和整理竞信息需要耗费大量时间和资源。信息的准确性和实时性至关重要。 痛点二:数据不对称,难以获得准确的企业信息。风险评估需要综合考虑多个因素,如财务数据、法律诉讼等。 痛点三:企业的合作伙伴信息不透明,需要深入了解其经营状况和商业风险。合作伙伴选择需要综合考虑多个因素。 通过本方案实现的业务效果: 金融-信贷业务/风控(国有银行/商业银行/金融服务/财产保险/人寿保险) 降低合规监管风险:多维度数据整合、实时风险评估,提供全面的信用分析。前对企业评估风险,防范骗取授信,准入合规筛查;多个借贷主体之间的隐藏关联关系发掘,对与自身有业务往来的企业或个人能够实时的进行风险监控。 信息核验快速:完成企业或个人的相关信息筛查和核验(如工商信息/企业的名称/统一社会信用代码和法人代表姓名统的企业三要素查验等)。 背景调查数字化:客户信息核验,避免碎片化背调错漏,无需重复调查,获取真实准确信息,生成企业信用报告。洞察主体状况,提供详细的财务数据和企业背景,帮助投资者做出明智的投资决策。 关联关系可排查:规避联合投标、财务坏账关联、借壳串标;(如最终受益人、疑似实际控制人、实际控制权、股权穿透图等) 互联网-电商平台/店铺管理(垂直电商/平台电商/跨境电商/O2O电商) 准确拓客:对潜在客户进行准确筛选,补全现有客户的业务维度数据,提升客户资料使用率和准确率; 提升合规审核效率:用于企业准入规则审核,判断平台的入驻商家,是否合规以及是否存在合作风险(如正常经营,是否正式注册存在); 智能录入:辅助提升合作伙伴(如店家/供应商)信息录入效率,如智能填单,快速识别、匹配、自动填充,规范录入信息。辅助线上提交审批材料后的快速验证。 政府-数字税务(税务) 强化税收征管: 商业查询提供准确的税务信息,帮助税务机构提高税收征管效果,减少逃税行为,增加税收收入 政府-检法司大数据(检法司) 增强执法能力: 商业查询提供的信息可用作法庭证据,有助于支持司法程序,提高执法效果。法院接受案件审理时查看企业相关信息,包括财产线索,股权结果等企业概况,同时针对涉及的关联方,以及企业信息合法合规性进行查询,协助案件处理。通过商业查询,税务机构和检法司可以更准确、高效地获取、核实和分析商业信息,从而更好地履行监管、税收征管和执法职责,实现更有效的合规性、税收征管和法律执法。 智能制造-供应链管理(国内传统车企/外资车企/造车新势力/设备制造/药厂) 提升供应链管理效率:供应链管理和供应商评估,企业可以分析供应商的财务状况、供应链历史,减少供应链风险。供应商入驻审核,供应链从优选取;资质评分、供应商信用评级,提升供应链管理效率。 集成商(伙伴维度) 提升开发效率:基于高准确度、丰富的数据,为功能开发提供较为完备的数据支撑,降低自行数据采集带来的难度。
  • 错误代码说明 表3 错误代码说明 代码 说明 0 请求成功 300000 ⽆数据 300001 请求失败 300002 账号失效 300003 账号过期 300004 访问频率过快 300005 ⽆权限访问此api 300006 余额不⾜ 300007 剩余次数不⾜ 300008 缺少必要参数 300009 账号信息有误 300010 URL不存在 300011 此IP⽆权限访问此api 300012 报告⽣成中
  • 根据代码示例修改获取方式 /** * @param path 对⽅或第三⽅提供的路径 * @param token * @return */ public static String getMessageByUrlToken(String path,String token){ String result=""; try { // 根据地址获取请求 HttpGet request = new HttpGet(path);//这⾥发送get请求 // 获取当前客户端对象 request.setHeader("Authorization", token); HttpClient httpClient = new DefaultHttpClient(); // 通过请求对象获取响应对象 HttpResponse response = httpClient.execute(request); // 判断网络连接状态码是否正常(0--200都数正常) if (response.getStatusLine().getStatusCode() == HttpStatus.SC_OK) { result= EntityUtils.toString(response.getEntity(),"utf-8"); } } catch (Exception e) { // TODO Auto-generated catch block e.printStackTrace(); e.printStackTrace(); } return result; } // 访问授权限制访问级别:普通接⼝
  • 返回字段说明 根据返回字段进行调校。 表2 返回字段说明 返回值字段 字段类型 字段说明 备注 result Object - - historyNames String varchar(255) 曾⽤名 regStatus String varchar(31) 企业状态 cancelDate Number 时间戳 注销⽇期 regCapital String varchar(50) 注册资本 city String varchar(20) 市 staffNumRange String varchar(200) ⼈员规模 industry String varchar(255) ⾏业 historyNameList Array - 曾⽤名 bondNum String varchar(20) 股票号 type Number int(1) 法⼈类型,1 ⼈ 2 公司 bondName String varchar(20) 股票名 updateTimes Number 时间戳 更新时间 revokeDate Number 时间戳 吊销⽇期 legalPersonName String varchar(255) 法⼈ revokeReason String varchar(500) 吊销原因 regNumber String varchar(31) 注册号 property3 String varchar(255) 英⽂名 creditCode String varchar(255) 统⼀社会信⽤代码 usedBondName String varchar(20) 股票曾⽤名 fromTime Number 时间戳 经营开始时间 approvedTime Number 时间戳 核准时间 socialStaffNum Number int(10) 参保⼈数 alias String varchar(255) 简称 companyOrgType String varchar(127) 企业类型 actualCapitalCurrency String varchar(10) 实收注册资本币种 ⼈⺠币 美元 欧元 等 id Number int(20) 企业id orgNumber String varchar(31) 组织机构代码 cancelReason String varchar(500) 注销原因 toTime Number 时间戳 经营结束时间 actualCapital String varchar(50) 实收注册资⾦ estiblishTime Number 时间戳 成⽴⽇期 regInstitute String varchar(255) 登记机关 taxNumber String varchar(255) 纳税⼈识别号 businessScope String varchar(4091) 经营范围 regLocation String varchar(255) 注册地址 regCapitalCurrency String varchar(10) 注册资本币种 ⼈⺠币 美元 欧元 等 tags String varchar(255) 企业标签 district String varchar(20) 区 name String varchar(255) 企业名 bondType String varchar(31) 股票类型 percentileScore Number 万分制 企业评分 industryAll Object - 国⺠经济⾏业分类 categoryMiddle String varchar(255) 国⺠经济⾏业分类中类 categoryBig String varchar(255) 国⺠经济⾏业分类⼤类 category String varchar(255) 国⺠经济⾏业分类⻔类 categorySmall String varchar(255) 国⺠经济⾏业分类⼩类 isMicroEnt Number int(1) 是否是⼩微企业 0不是 1是 base String varchar(31) 省份简称 reason String - 错误信息 error_code Number - 状态码
  • 操作场景 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以实现在两个Kafka实例中,数据的单向或双向复制。 2022年7月1日前已开启Smart Connect的实例,如果没有Kafka数据复制,请先关闭Smart Connect,然后再重新开启Smart Connect。 单机版实例不支持创建Kafka数据复制的Smart Connect任务。 源Kafka实例中的数据会实时同步到目标Kafka实例中。
  • 使用限制 单账号跟踪的事件可以通过 云审计 控制台查询。多账号的事件只能在账号自己的事件列表页面去查看,或者到组织追踪器配置的OBS桶中查看,也可以到组织追踪器配置的 CTS /system日志流下面去查看。 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS),才可在OBS桶里面查看历史文件。否则,您将无法追溯7天以前的操作记录。 云上操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。
  • 前提条件 已配置正确的安全组。 访问未开启SASL的Kafka实例时,实例需要配置正确的安全组规则,具体安全组配置要求,请参考表2。 已获取连接Kafka实例的地址。 如果是使用内网通过同一个VPC访问,实例端口为9092,实例连接地址获取如下图。 图1 使用内网通过同一个VPC访问Kafka实例的连接地址(实例未开启SASL) 图2 使用内网通过同一个VPC访问Kafka实例的连接地址(实例未开启SASL) 如果是公网访问,实例端口为9094,实例连接地址获取如下图。 图3 公网访问Kafka实例的连接地址(实例未开启SASL) 图4 公网访问Kafka实例的连接地址(实例未开启SASL) 如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本或者Kafka命令行工具2.7.2版本或者Kafka命令行工具3.4.0版本,确保Kafka实例版本与命令行工具版本相同。 已创建弹性云服务器,如果使用内网通过同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。在弹性云服务器中安装Java Development Kit 1.8.111或以上版本,并配置JAVA_HOME与PATH环境变量,具体方法如下: 使用执行用户在用户家目录下修改“.bash_profile”,添加如下行。其中“/opt/java/jdk1.8.0_151”为JDK的安装路径,请根据实际情况修改。 export JAVA_HOME=/opt/java/jdk1.8.0_151 export PATH=$JAVA_HOME/bin:$PATH 执行source .bash_profile命令使修改生效。
  • 操作场景 Kafka实例创建成功后,您可以根据业务需要,扩容或者缩容,Kafka实例支持的变更配置如表1所示。 表1 变更配置列表 实例规格类型 变更配置类型 是否支持扩容 是否支持缩容 新规格实例 代理数量 √ × 存储空间 √ × 代理规格 √ √ 老规格实例 基准带宽 √ × 存储空间 √ × 代理规格 × × 单机版实例不支持变更实例规格。 怎样判断老规格实例和新规格实例? 老规格实例:在实例列表中,“规格”显示为带宽(如100MB/s)的实例。 新规格实例:在实例列表中,“规格”显示为ECS规格和代理个数(如kafka.2u4g.cluster*3 broker)的实例。 图1 实例列表
  • 变更实例规格的影响 变更实例规格的时长和代理数量有关,单个代理的变更时长一般在5~10分钟,代理数量越多,规格变更时间越长。 表2 变更实例规格的影响 变更配置类型 影响 基准带宽/代理数量 扩容基准带宽/代理数量不会影响原来的代理,业务也不受影响。 扩容基准带宽/代理数量时,系统会根据当前磁盘大小进行相应比例的存储空间扩容。例如扩容前实例的代理数为3,每个代理的磁盘大小为200GB,扩容后实例的代理数为10,此时代理的磁盘大小依旧为200GB,但是总磁盘大小为2000GB。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过修改分区平衡,实现将原有Topic分区的副本迁移到新代理上。 存储空间 扩容存储空间有次数限制,只能扩容20次。 扩容存储空间不会影响业务。 代理规格 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,扩容/缩容代理规格不会造成服务中断,但可能会导致消费的分区消息发生乱序,请谨慎评估业务影响,建议您在业务低峰期扩容/缩容。 扩容/缩容代理规格的过程中,节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: 生产客户端为Kafka开源客户端时,检查是否配置retries参数,建议此参数值设置为3~5。 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(3, Time.seconds(20))); 若实例已创建的分区数总和大于待缩容规格的实例分区数上限,此时无法缩容。不同规格配置的实例分区数上限不同,具体请参见产品规格。 例如:kafka.4u8g.cluster*3的实例,已创建800个分区,您想把此实例的规格缩容为kafka.2u4g.cluster*3,kafka.2u4g.cluster*3规格的实例分区数上限为750,此时无法缩容。
  • Kafka实例的连接地址默认有多少个? Kafka实例的连接地址个数和实例的代理个数有关,连接地址个数即为代理个数。每类实例规格对应的代理个数如下表所示。 表1 Kafka实例规格(集群版实例) 实例规格 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300GB~300000GB 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300GB~300000GB 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300GB~600000GB 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300GB~1500000GB 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300GB~1500000GB 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300GB~1500000GB 750 表2 Kafka实例规格(单机版实例) 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100GB~10000GB 40 kafka.2u4g.single 1 30000 250 20 2000 100GB~10000GB 100 父主题: 连接问题
  • 为什么限制Topic的总分区数? Kafka以分区为粒度管理消息,分区多导致生产、存储、消费都碎片化,影响性能稳定性。在使用过程中,当Topic的总分区数达到上限后,用户就无法继续创建Topic。 不同规格配置的Topic总分区数不同,如下表所示。 表1 Kafka实例规格(集群版实例) 实例规格 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300GB~300000GB 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300GB~300000GB 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300GB~600000GB 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300GB~1500000GB 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300GB~1500000GB 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300GB~1500000GB 750 表2 Kafka实例规格(单机版实例) 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100GB~10000GB 40 kafka.2u4g.single 1 30000 250 20 2000 100GB~10000GB 100 父主题: Topic和分区问题
  • Kafka实例的Topic数量是否有限制? Topic数量和Topic总分区数、每个Topic的分区数有关,Kafka实例对Topic总分区数设置了上限,当达到上限后,会导致用户无法继续创建Topic。 不同规格配置的Topic总分区数不同,如下表所示。 表1 Kafka实例规格(集群版实例) 实例规格 代理个数范围 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.cluster.small 3~30 20000 100 15 2000 300GB~300000GB 40 kafka.2u4g.cluster 3~30 30000 250 20 2000 300GB~300000GB 100 kafka.4u8g.cluster 3~30 100000 500 100 4000 300GB~600000GB 200 kafka.8u16g.cluster 3~50 150000 1000 150 4000 300GB~1500000GB 375 kafka.12u24g.cluster 3~50 200000 1500 200 4000 300GB~1500000GB 625 kafka.16u32g.cluster 3~50 250000 2000 200 4000 300GB~1500000GB 750 表2 Kafka实例规格(单机版实例) 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/s) kafka.2u4g.single.small 1 20000 100 15 2000 100GB~10000GB 40 kafka.2u4g.single 1 30000 250 20 2000 100GB~10000GB 100 父主题: Topic和分区问题
  • 版本生命周期 分布式消息服务Kafka版的版本生命周期如表1所示。 表1 版本生命周期 消息引擎类型 版本名称 状态 EOM时间 EOS时间 Kafka 1.1.0 在售 暂无计划 暂无计划 2.3.0 EOM 2023年5月5日 2025年上半年 2.7 在售 2024年下半年 2026年下半年 3.x 在售 - - EOM:End of Marketing,停止该版本的销售。 EOS:End of Service & support,停止该版本的服务,建议您在执行作业时选择最新版本的引擎。在该日期之后,不再提供该软件版本的任何技术服务支持。
  • 手动备份说明 备份类型: 全量备份:全量备份表示对所有目标数据进行备份。全量备份总是备份所有选择的目标,即使从上次备份后数据没有变化。 备份方式: 物理备份:通过物理拷贝磁盘文件的方式进行备份。 DDS支持的手动备份方法如表1所示。 表1 备份方法 实例类型 备份方式 备份类型 集群 物理备份 全量备份 副本集 物理备份 全量备份 单节点 说明: 单节点因为资源的限制,支持的场景有限,建议仅学习时选用。 物理备份 全量备份
  • Agent支持的操作系统 使用数据库安全审计功能,必须在数据库节点或应用节点安装Agent。数据库安全审计的Agent可运行在Linux64位和Windows64位操作系统上。 数据库安全审计的Agent支持的Linux系统版本如表3所示。 表3 Agent支持的Linux系统版本说明 系统名称 系统版本 CentOS CentOS 7.0 (64bit) CentOS 7.1 (64bit) CentOS 7.2 (64bit) CentOS 7.3 (64bit) CentOS 7.4 (64bit) CentOS 7.5 (64bit) CentOS 7.6 (64bit) CentOS 7.8 (64bit) CentOS 7.9 (64bit) CentOS 8.0 (64bit) CentOS 8.1 (64bit) CentOS 8.2 (64bit) Debian Debian 7.5.0 (64bit) Debian 8.2.0 (64bit) Debian 8.8.0 (64bit) Debian 9.0.0 (64bit) Debian 10.0.0 (64bit) Fedora Fedora 24 (64bit) Fedora 25 (64bit) Fedora 29 (64bit) Fedora 30 (64bit) OpenSUSE SUSE 13 (64bit) SUSE 15 (64bit) SUSE 42 (64bit) SUSE SUSE 11 SP4 (64bit) SUSE 12 SP1 (64bit) SUSE 12 SP2 (64bit) Ubuntu Ubuntu 14.04 (64bit) Ubuntu 16.04 (64bit) Ubuntu 18.04 (64bit) Ubuntu 20.04 (64bit)(华为云审计实例:23.02.27.182148 及其之后的版本支持) EulerOS Euler 2.2 (64bit) Euler 2.3 (64bit) Euler 2.5 (64bit) OpenEuler OpenEuler 20.03 (64bit) Oracle Linux Oracle Linux 6.9 (64bit) Oracle Linux 7.4 (64bit) Red Hat Red Hat Enterprise Linux 7.4 (64bit) Red Hat Enterprise Linux 7.6 (64bit) NeoKylin NeoKylin 7.0 (64bit) Kylin Kylin Linux Advanced Server release V10 (64bit) Uniontech OS Uniontech OS Server 20 Enterprise (64bit) Huawei Cloud Euler Huawei Cloud Euler 2.0 (64bit) KylinSec KylinSec 3.4(64bit) 数据库安全审计的Agent支持的Windows系统版本如下所示: Windows Server 2008 R2(64bit) Windows Server 2012 R2(64bit) Windows Server 2016(64bit) Windows Server 2019(64bit) Windows 7(64bit) Windows 10(64bit) DBSS Agent的运行依赖Npcap,如果安装过程中提示"Npcap not found,please install Npcap first",请安装Npcap后,再安装DBSS Agent。 Npcap下载链接:https://npcap.com/#download 图1 Npcap not found
  • 支持安装Agent数据库类型及版本 支持的数据库类型及版本如表2所示。 表2 数据库安全审计支持的数据库类型和版本 数据库类型 版本 MySQL 5.0、5.1、5.5、5.6、5.7 8.0(8.0.11及以前的子版本) 8.0.20 8.0.23 8.0.25 Oracle (因Oracle为闭源协议,适配版本复杂,如您需审计Oracle数据库,请先联系客服人员) 11g 11.1.0.6.0 、11.2.0.1.0 、11.2.0.2.0、11.2.0.3.0、11.2.0.4.0 12c 12.1.0.2.0 、12.2.0.1.0 19c PostgreSQL 7.4 8.0 8.0、8.1、8.2、8.3、8.4 9.0 9.0、9.1、9.2、9.3、9.4、9.5、9.6 10.0 10.0、10.1、10.2、10.3、10.4、10.5 11.0 12.0 13.0 14.0 SQL Server 2008、2008R2 2012 2014 2016 2017 DWS 1.5 8.1 SHENTONG V7.0 GBase 8a V8.5 GBase 8s V8.8 Gbase XDM Cluster V8.0 Greenplum V6.0 HighGo V6.0 GaussDB (for MYSQL) MySQL 8.0 GaussDB 1.4企业版 DAMENG DM8 KINGBASE V8 MongoDB V5.0 DDS 4.0 Hbase (华为云审计实例:23.02.27.182148 及其之后的版本支持) 1.3.1 2.2.3 Hive (华为云审计实例:23.02.27.182148 及其之后的版本支持) 1.2.2 2.3.9 3.1.2 3.1.3
  • 其他约束条件 数据库安全审计不支持跨区域(Region)使用。待审计的数据库必须和购买申请的数据库安全审计实例在同一区域。 数据库开启SSL时,将不能使用数据库安全审计功能。如果您需要使用数据库安全审计功能,请关闭数据库的SSL。关闭数据库SSL的详细操作,请参见如何关闭数据库SSL?。 购买数据库安全审计配置VPC时,需与Agent安装节点(应用端或数据库端)所在的VPC保持一致。否则,将导致Agent与审计实例之间的网络不通,无法使用数据库安全审计。数据库安全审计的Agent安装节点,请参见:如何选择数据库安全审计的Agent安装节点? 部分SQLserver中的复杂declare语句、select函数和包含系统无法识别的符号语句可能无法解析。
共100000条