DLI支持券SQL数据分析吗
数据湖探索(Data Lake Insight,简称DLI)是一款大数据分析工具,提供标准SQL,完全兼容Spark接口,支持自动弹性扩展,云上多数据源联邦分析,提供资源和数据细粒度管控的多租户能力,广泛应用于IoT,互联网,游戏等行业统计报表,行为日志分析,历史数据查询审计等场景
逻辑集群,支持一套集群容纳数据集市、数据仓库 搭配使用 数据接入服务 DIS 云数据迁移 CDM 数据湖治理中心 DataArts Studio 一站式BI解决方案 一站式BI解决方案 企业积累的海量数据及各种数据资产,体量庞大,需高性能大数据平台支撑进行全量数据分析和挖掘。依托
实时流计算CS已与数据湖探索DLI进行了合并,同SPU资源下 数据湖探索DLI 价格下降30%,请前往体验> 进入DLI控制台 立即购买 [退市通知] 华为云实时流计算服务于2020年11月1日00:00:00(北京时间)退市,原有功能已合并到DLI [进入DLI] 数据湖探索DLI主页 [退市通知]
华为云物联网数据分析服务已与物联网接入服务无缝集成,设备一旦通过接入服务接入华为云,并授权数据分析服务访问数据,即可获得常见设备运营分析相关的数据集,无需数据开发人员进行开发。因此通过物联网数据分析服务,可以使得物联网设备运营相关的数据开发周期从数周缩短至几分钟 企业OT数据治理: 业务挑战
03 连接集群 支持多种连接方式,包括JDBC/ODBC,Python,gsql客户端,WebSQL界面工具DAS、Data Studio。 04 导入数据 支持多种数据源和导入工具完成数据入库:支持OBS外表、GDS外表导入;支持CDM、DRS、DLI实时入库;支持访问远端MRS
搭配使用 数据湖探索 DLI 云数据迁移 CDM 消息日志类数据存储和查询 消息日志类数据存储和查询 CloudTable(HBase)满足消息或日志类数据的高速查询后展现或者返回到应用。适用于以下等场景:消息数据、报表数据、推荐类数据、风控类数据、日志数据、订单数据等结构化、半
安全可靠 DWS支持数据透明加密,同时支持与数据库安全服务DBSS集成,保证云上数据安全。同时DWS支持自动数据全量、增量备份,提升数据可靠性 建议搭配使用 数据接入服务 DIS 云数据迁移 CDM 数据湖治理中心 DGC 数据湖分析 整合数据资源,构建大数据平台,发现数据价值,成为企业经营的新趋势和迫切诉求。DWS
简单易用 基于多维数据,支持SQL接口查询,轻松实现数据探索分析 场景适用服务 MapReduce服务 MRS 对象存储服务 OBS 云数据迁移 CDM 云数据库 RDS for MySQL 精心打造的功能 精心打造的功能 一站式融合平台 提供Doris、Kafka、Flink
QL优化改写、SQL注释功能 了解更多 产品功能 一站式数据入湖 统一数据开发 企业级架构指标 智能数据质量 全域数据资产 全局数据湖安全 一站式数据入湖 DataArts Studio数据集成 支持自建和云上的关系数据库,数据仓库,NoSQL,大数据云服务,对象存储等30+同构
的分布式数据库,兼容Cassandra/HBase协议的云原生NoSQL数据库,支持类SQL语法CQL GeminiDB Cassandra接口是一款基于华为自研的计算存储分离架构的分布式数据库,兼容Cassandra/HBase协议的云原生NoSQL数据库,支持类SQL语法CQL
51CloudLink(弹性混合云专线),基于锐速全球骨干传输网,连接企业与大规模公有云,为客户提供的高速专线服务。1、用于搭建企业自有计算环境到公有云用户计算环境的高速、稳定、安全的专属通道。用户可使用专线接入服务将本地数据中心的计算机与云上的云服务器或托管主机实现私网相连,充
通过对接企业的各种系统数据源,以独有的行业算法模型进行数据整合与多样化深度分析,自动生成可视化图表结果,供用户在电脑、手机、大屏查看。帮助企业高管掌握数据状况,辅助管理决策。 企业数据分析及决策支持系统通过搭建强大算法引擎,建模提炼企业系统数据,为企业高管提供实时的企业运营
修改密码,删除,限制FTP空间大小 6 mysql用户管理,可建独立mysql数据库,密码修改,删除等.可以限制mysql使用大小,更多的功能,可使用phpmyadmin 7 后台整合phpmyadmin,更好地管理mysql 8 支持网站,数据库,FTP在线打包备份 在线文件管理器 1
server 脚本启动:/usr/local/terarksql-4.8-bmi2-0/terarksql.server start关闭:/usr/local/terarksql-4.8-bmi2-0/terarksql.server stop重启:/usr/local/terarksql-4
本产品针对纸券发放场景存在的人工效率低、信息准确率差等问题,简化纸券填写流程,实现纸券自定义快速打印,减少收费员人工操作环节,提高车辆通行效率及纸券收费准确性,提升用户体验感。本产品针对纸券发放场景存在的人工效率低、信息准确率差等问题,简化纸券填写流程,实现纸券自定义快速打印,减
源码安装的PostgreSQL10.3此镜像商品为源码编译安装的PostgreSQL数据库,作为配合乘数科技Clup高可用软件数据库使用,也可单独做为数据库使用null
武汉德发提供基于华为云WeLink的支持服务,提供产品演示、使用咨询、后台设置、功能指导等服务【基础版】 服务价格: 1人天上门服务,单价2500元/套。 服务内容: (1)上门服务:1对1指导部署,产品操作演示方案讲解;帮助设置考勤、审批等常用应用;分享同行优秀管理案例; (2) 远程支持:管理员后台配置修改;使用咨询。
功能指导等服务。服务价格基础版:1人天上门——2500/套;白银版:5人天上门+全年远程支持——10000/套年黄金版:10人天上门+全年远程支持——18000/套年铂金版:15人天上门+全年远程支持——22500/套年全年人员外包模式——1500/人天基础版上门支持:1、WeL
湖南轩利提供基于华为云WeLink的支持服务,可以上门服务,也可以远程支持,多种模式选择。基准版:1人天上门 价格:2500元/次 服务内容: 1、WeLink产品介绍; 2、WeLink产品操作演示及讲解; 3、管理员后台基本功能指导。 交付标准: 1、帮助企业开通WeLink服务; 2、完成常用功能演示;
创建并提交Spark SQL作业 使用DLI提交SQL作业查询RDS MySQL数据 本例以SQL作业访问RDS数据库表为例,介绍DLI服务提交SQL作业访问外部数据源数据的操作步骤。 本例以SQL作业访问RDS数据库表为例,介绍DLI服务提交SQL作业访问外部数据源数据的操作步骤。
及时了解数据变化,调整营销策略。 使用DLI进行电商实时业务数据分析 数据湖探索优势 支持SQL操作: DLI提供标准SQL接口,用户仅需使用SQL便可实现海量数据查询分析。SQL语法全兼容标准ANSI SQL 2003。 跨源分析: 支持多种数据格式,云上多种数据源、ECS自建
通过创建PostgreSQL CDC来监控Postgres的数据变化,并将数据信息插入到DWS数据库中。 PostgreSQL CDC读取数据写入到DWS JDBC或ODBC提交Spark SQL作业 通过创建MySQL CDC源表来监控MySQL的数据变化,并将变化的数据信息插入到DWS数据库中。
跨源连接的特点与用途 DLI支持原生Spark的跨源连接能力,并在其基础上进行了扩展,能够通过SQL语句、Spark作业或者Flink作业访问其他数据存储服务并导入、查询、分析处理其中的数据,数据湖探索跨源连接的功能是打通数据源之间的网络连接。 数据湖探索跨源连接的功能是打通数据源之间的网络
。 代金券和现金券的使用方法一样,支付订单时,系统会自动获取所有满足条件的代金券和现金券,您可以直接选择使用;抵扣按需费用时,系统会自动选择使用代金券和现金券。 代金券和现金券的使用规则区别如下: 1、现金券可以与其他券叠加使用。现金券和代金券叠加使用时,优先抵扣代金券;现金券和
Studio DLI Flink Job 通过DLI Flink Job节点执行一个预先定义的DLI作业,实现实时流式大数据分析。 数据开发 数据治理中心 作业节点DLI Flink Job 数据治理中心 DataArts Studio DLI SQL 通过DLI SQL节点传递SQ
华为认证优惠券申请 华为认证优惠券是代金券和折扣券的统称,是指华为云提供给客户的优惠凭证。本专题主要为用户提供了怎样申请华为认证优惠券、怎样领取通用优惠券、什么是华为充值优惠券、华为充值优惠券使用限制以及华为认证优惠券申请相关文章推荐等内容。 华为认证优惠券是代金券和折扣券的统称,是
多不可用产品以代金券实际显示为准,不支持按量(需)产品; 5)优惠券不支持和渠道折扣、折扣券、其他优惠券叠加使用,每个订单只能使用1张优惠券; 6)优惠券仅用于用户本账户下使用,不得转让或出售。 4、官网-新购/变更/续费 优惠券说明: 1) 新购/变更优惠券(满5000减150
领取的华为云优惠券使用时的注意事项: 优惠券包括代金券、折扣券和现金券。 折扣券使用注意事项: 1、一次支付只能使用一张折扣券。 2、折扣券仅适用于华为云包年/包月产品,按需产品不支持使用折扣券。 3、折扣券使用后不可退。 现金券使用注意事项: 1、现金券仅适用于华为云产品和云市场严选商品,不适用于云市场普通商品,具体以现金券适用说明为准。
DLI支持券SQL数据分析吗
功能描述
DLI支持将Flink作业数据输出到ClickHouse 数据库 中,表类型仅支持结果表。
ClickHouse是面向联机分析处理的列式数据库,支持SQL查询,且查询性能好,特别是基于大宽表的聚合分析查询性能非常优异,比其他分析型数据库速度快一个数量级。详细请参考ClickHouse组件操作。
类别 |
详情 |
---|---|
支持表类型 |
结果表 |
前提条件
注意事项
- 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.15”,勾选“保存作业日志”并设置保存作业日志的 OBS 桶,方便后续查看作业日志。
- 认证用的username和password等硬编码到代码中或者明文存储都有很大的安全风险,建议使用 DEW 管理凭证。配置文件或者环境变量中密文存放,使用时解密,确保安全。Flink Opensource SQL使用DEW管理访问凭据
- 创建 MRS 的ClickHouse集群,集群版本选择MRS 3.1.0及以上版本。
- ClickHouse结果表不支持删除表数据操作。
- Flink中支持字段类型范围为:string、tinyint、smallint、int、bigint、float、double、date、timestamp、decimal以及Array。
语法格式
1 2 3 4 5 6 7 8 9 |
create table clickhouseSink ( attr_name attr_type (',' attr_name attr_type)* ) with ( 'type' = 'clickhouse', 'url' = '', 'table-name' = '' ); |
参数说明
参数 |
是否必选 |
默认值 |
数据类型 |
说明 |
---|---|---|---|---|
connector |
是 |
无 |
String |
固定为:clickhouse |
url |
是 |
无 |
String |
ClickHouse的url。 参数格式为:jdbc:clickhouse://ClickHouseBalancer实例业务IP1:ClickHouseBalancer端口,ClickHouseBalancer实例业务IP2:ClickHouseBalancer端口/数据库名
|
table-name |
是 |
无 |
String |
ClickHouse的表名。 |
driver |
否 |
ru.yandex.clickhouse.ClickHouseDriver |
String |
连接数据库所需要的驱动。若未配置,则会自动通过URL提取,默认为ru.yandex.clickhouse.ClickHouseDriver。 |
username |
否 |
无 |
String |
访问ClickHouse数据库的账号名,MRS集群开启Kerberos认证时需要填写。 |
password |
否 |
无 |
String |
访问ClickHouse数据库账号的密码,MRS集群开启Kerberos认证时需要填写。 |
sink.buffer-flush.max-rows |
否 |
100 |
Integer |
写数据时刷新数据的最大行数,默认值为100。 |
sink.buffer-flush.interval |
否 |
1s |
Duration |
刷新数据的时间间隔,单位可以为ms、milli、millisecond/s、sec、second/min、minute等,默认值为1s。设置为0则表示不根据时间刷新。 |
sink.max-retries |
否 |
3 |
Integer |
写数据失败时的最大尝试次数,默认值为3。 |
示例
- 示例1:从Kafka中读取数据,并将数据插入ClickHouse中(ClickHouse版本为MRS的21.3.4.25,且MRS集群未开启Kerberos认证):
- 参考增强型跨源连接,在DLI上根据ClickHouse和Kafka集群所在的虚拟 私有云 和子网分别创建跨源连接,并绑定所要使用的Flink弹性资源池。
- 设置ClickHouse和Kafka集群安全组的入向规则,使其对当前将要使用的Flink作业队列网段放通。参考测试地址连通性根据ClickHouse和Kafka的地址测试队列连通性。如果能连通,则表示跨源已经绑定成功,否则表示未成功。
- 使用ClickHouse客户端连接到ClickHouse服务端,并使用以下命令查询集群标识符cluster等其他环境参数信息。
详细操作请参考从零开始使用ClickHouse。
select cluster,shard_num,replica_num,host_name from system.clusters;
其返回信息如下图:┌─cluster────┬────┬─shard_num─┐ │ default_cluster │ 1 │ 1 │ │ default_cluster │ 1 │ 2 │ └──────── ┴────┴────── ┘
根据获取到的集群标识符cluster,例如当前为default_cluster ,使用以下命令在ClickHouse的default_cluster集群节点上创建数据库flink。
CREATE DATAB AS E flink ON CLUSTER default_cluster;
- 使用以下命令在default_cluster集群节点上和flink数据库下创建表名为order的ReplicatedMergeTree表。
CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
- 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业脚本,并提交运行。该作业脚本将DMS Kafka作为数据源,ClickHouse作业结果表。
如下脚本中的加粗参数请根据实际环境修改。
create table orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'GroupId', 'scan.startup.mode' = 'latest-offset', 'format' = 'json' ); create table clickhouseSink( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) with ( 'connector' = 'clickhouse', 'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink', 'username' = 'username', 'password' = 'password', 'table-name' = 'order', 'sink.buffer-flush.max-rows' = '10', 'sink.buffer-flush.interval' = '3s' ); insert into clickhouseSink select * from orders;
- 连接Kafka集群,向DMS Kafka中插入以下测试数据:
{"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
- 使用ClickHouse客户端连接到ClickHouse,执行以下查询命令,查询写入flink数据库下order表中的数据。
select * from flink.order;
查询结果参考如下:
202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106 202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110
- 示例2:从Kafka中读取数据,并将数据插入ClickHouse中(ClickHouse版本为MRS的21.3.4.25,且MRS集群开启Kerberos认证)
- 参考增强型跨源连接,在DLI上根据ClickHouse和Kafka集群所在的虚拟私有云和子网分别创建跨源连接,并绑定所要使用的Flink弹性资源池。
- 设置ClickHouse和Kafka集群安全组的入向规则,使其对当前将要使用的Flink作业队列网段放通。参考测试地址连通性根据ClickHouse和Kafka的地址测试队列连通性。如果能连通,则表示跨源已经绑定成功,否则表示未成功。
- 使用ClickHouse客户端连接到ClickHouse服务端,并使用以下命令查询集群标识符cluster等其他环境参数信息。
select cluster,shard_num,replica_num,host_name from system.clusters;
其返回信息如下图:┌─cluster────┬────┬─shard_num─┐ │ default_cluster │ 1 │ 1 │ │ default_cluster │ 1 │ 2 │ └──────── ┴────┴────── ┘
根据获取到的集群标识符cluster,例如当前为default_cluster ,使用以下命令在ClickHouse的default_cluster集群节点上创建数据库flink。
CREATE DATABASE flink ON CLUSTER default_cluster;
- 使用以下命令在default_cluster集群节点上和flink数据库下创建表名为order的ReplicatedMergeTree表。
CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
- 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业脚本,并提交运行。该作业脚本将Kafka作为数据源,ClickHouse作业结果表。
如下脚本中的加粗参数请根据实际环境修改。
create table orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'GroupId', 'scan.startup.mode' = 'latest-offset', 'format' = 'json' ); create table clickhouseSink( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string ) with ( 'connector' = 'clickhouse', 'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink?ssl=true&sslmode=none', 'table-name' = 'order', 'username' = 'username', 'password' = 'password', --DEW凭据中的key 'sink.buffer-flush.max-rows' = '10', 'sink.buffer-flush.interval' = '3s', 'dew.endpoint'='kms.xx.xx.com', --使用的DEW服务所在的endpoint信息 'dew.csms.secretName'='xx', --DEW服务通用凭据的凭据名称 'dew.csms.decrypt.fields'='password', --password字段值需要利用DEW凭证管理,进行解密替换 'dew.csms.version'='v1' ); insert into clickhouseSink select * from orders;
- 连接Kafka集群,向Kafka中插入以下测试数据:
{"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"} {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
- 使用ClickHouse客户端连接到ClickHouse,执行以下查询命令,查询写入flink数据库下order表中的数据。
select * from flink.order;
查询结果参考如下:
202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106 202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110
DLI支持券SQL数据分析吗常见问题
更多常见问题 >>-
DLI在开源Spark基础上进行了大量的性能优化与服务化改造,不仅兼容Apache Spark生态和接口,性能较开源提升了2.5倍,在小时级即可实现EB级数据查询分析。
-
数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理等,挖掘和探索数据价值
-
GaussDB(for MySQL)支持的数据库驱动介绍。
-
数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理等,挖掘和探索数据价值
-
DLI表表示数据存储在数据湖探索(DLI)内部的表。查询性能更好,适用于对时延敏感类的业务,如交互类的查询等。
-
Flink是一款分布式的计算引擎,可以用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时地处理一些实时数据流,实时地产生数据的结果。DLI在开源Flink基础上进行了特性增强和安全增强,提供了数据处理所必须的Stream SQL特性。
更多相关专题
增值电信业务经营许可证:B1.B2-20200593 | 域名注册服务机构许可:黔D3-20230001 | 代理域名注册服务机构:新网、西数