[快速入门]DLI支持券SQL数据分析吗
数据仓库服务 GaussDB(DWS)

逻辑集群,支持一套集群容纳数据集市、数据仓库 搭配使用 数据接入服务 DIS 云数据迁移 CDM 数据湖治理中心 DataArts Studio 一站式BI解决方案 一站式BI解决方案 企业积累的海量数据及各种数据资产,体量庞大,需高性能大数据平台支撑进行全量数据分析和挖掘。依托

实时流计算服务

实时流计算CS已与数据湖探索DLI进行了合并,同SPU资源下 数据湖探索DLI 价格下降30%,请前往体验> 进入DLI控制台 立即购买 [退市通知] 华为云实时流计算服务于2020年11月1日00:00:00(北京时间)退市,原有功能已合并到DLI [进入DLI] 数据湖探索DLI主页 [退市通知]

IoT数据分析

华为云物联网数据分析服务已与物联网接入服务无缝集成,设备一旦通过接入服务接入华为云,并授权数据分析服务访问数据,即可获得常见设备运营分析相关的数据集,无需数据开发人员进行开发。因此通过物联网数据分析服务,可以使得物联网设备运营相关的数据开发周期从数周缩短至几分钟 企业OT数据治理: 业务挑战

数据仓库服务 GaussDB(DWS)入门

03 连接集群 支持多种连接方式,包括JDBC/ODBC,Python,gsql客户端,WebSQL界面工具DAS、Data Studio。 04 导入数据 支持多种数据源和导入工具完成数据入库:支持OBS外表、GDS外表导入;支持CDM、DRS、DLI实时入库;支持访问远端MRS

表格存储服务

搭配使用 数据湖探索 DLI数据迁移 CDM 消息日志类数据存储和查询 消息日志类数据存储和查询 CloudTable(HBase)满足消息或日志类数据的高速查询后展现或者返回到应用。适用于以下等场景:消息数据、报表数据、推荐类数据、风控类数据、日志数据、订单数据等结构化、半

数据仓库服务应用场景_数据仓库服务客户案例_GaussDB(DWS)

安全可靠 DWS支持数据透明加密,同时支持数据库安全服务DBSS集成,保证云上数据安全。同时DWS支持自动数据全量、增量备份,提升数据可靠性 建议搭配使用 数据接入服务 DIS 云数据迁移 CDM 数据湖治理中心 DGC 数据湖分析 整合数据资源,构建大数据平台,发现数据价值,成为企业经营的新趋势和迫切诉求。DWS

MapReduce服务

简单易用 基于多维数据支持SQL接口查询,轻松实现数据探索分析 场景适用服务 MapReduce服务 MRS 对象存储服务 OBS 云数据迁移 CDM 云数据库 RDS for MySQL 精心打造的功能 精心打造的功能 一站式融合平台 提供Doris、Kafka、Flink

数据治理中心

QL优化改写、SQL注释功能 了解更多 产品功能 一站式数据入湖 统一数据开发 企业级架构指标 智能数据质量 全域数据资产 全局数据湖安全 一站式数据入湖 DataArts Studio数据集成 支持自建和云上的关系数据库,数据仓库,NoSQL,大数据服务,对象存储等30+同构

GeminiDB Cassandra 接口

的分布式数据库,兼容Cassandra/HBase协议的云原生NoSQL数据库,支持SQL语法CQL GeminiDB Cassandra接口是一款基于华为自研的计算存储分离架构的分布式数据库,兼容Cassandra/HBase协议的云原生NoSQL数据库,支持SQL语法CQL

[相关产品]DLI支持券SQL数据分析吗
51cloudlink

51CloudLink(弹性混合云专线),基于锐速全球骨干传输网,连接企业与大规模公有云,为客户提供的高速专线服务。1、用于搭建企业自有计算环境到公有云用户计算环境的高速、稳定、安全的专属通道。用户可使用专线接入服务将本地数据中心的计算机与云上的云服务器或托管主机实现私网相连,充

募优BI-企业数据分析及决策支持系统

通过对接企业的各种系统数据源,以独有的行业算法模型进行数据整合与多样化深度分析,自动生成可视化图表结果,供用户在电脑、手机、大屏查看。帮助企业高管掌握数据状况,辅助管理决策。    企业数据分析及决策支持系统通过搭建强大算法引擎,建模提炼企业系统数据,为企业高管提供实时的企业运营

WDCP管理面板

修改密码,删除,限制FTP空间大小 6 mysql用户管理,可建独立mysql数据库,密码修改,删除等.可以限制mysql使用大小,更多的功能,可使用phpmyadmin 7 后台整合phpmyadmin,更好地管理mysql 8 支持网站,数据库,FTP在线打包备份 在线文件管理器 1

TerarkSQL

server  脚本启动:/usr/local/terarksql-4.8-bmi2-0/terarksql.server start关闭:/usr/local/terarksql-4.8-bmi2-0/terarksql.server stop重启:/usr/local/terarksql-4

速印通-高速纸券打印机

本产品针对纸发放场景存在的人工效率低、信息准确率差等问题,简化纸填写流程,实现纸自定义快速打印,减少收费员人工操作环节,提高车辆通行效率及纸收费准确性,提升用户体验感。本产品针对纸发放场景存在的人工效率低、信息准确率差等问题,简化纸填写流程,实现纸自定义快速打印,减

PostgreSQL

源码安装的PostgreSQL10.3此镜像商品为源码编译安装的PostgreSQL数据库,作为配合乘数科技Clup高可用软件数据库使用,也可单独做为数据库使用null

WeLink支持服务

武汉德发提供基于华为云WeLink的支持服务,提供产品演示、使用咨询、后台设置、功能指导等服务【基础版】 服务价格: 1人天上门服务,单价2500元/套。 服务内容: (1)上门服务:1对1指导部署,产品操作演示方案讲解;帮助设置考勤、审批等常用应用;分享同行优秀管理案例; (2) 远程支持:管理员后台配置修改;使用咨询。

WeLink支持服务

功能指导等服务服务价格基础版:1人天上门——2500/套;白银版:5人天上门+全年远程支持——10000/套年黄金版:10人天上门+全年远程支持——18000/套年铂金版:15人天上门+全年远程支持——22500/套年全年人员外包模式——1500/人天基础版上门支持:1、WeL

WeLink支持服务

湖南轩利提供基于华为云WeLink的支持服务,可以上门服务,也可以远程支持,多种模式选择。基准版:1人天上门 价格:2500元/次 服务内容: 1、WeLink产品介绍; 2、WeLink产品操作演示及讲解; 3、管理员后台基本功能指导。 交付标准: 1、帮助企业开通WeLink服务; 2、完成常用功能演示;

[相似文章]DLI支持券SQL数据分析吗
什么是Spark SQL作业_数据湖探索DLISpark SQL作业

创建并提交Spark SQL作业 使用DLI提交SQL作业查询RDS MySQL数据 本例以SQL作业访问RDS数据库表为例,介绍DLI服务提交SQL作业访问外部数据源数据的操作步骤。 本例以SQL作业访问RDS数据库表为例,介绍DLI服务提交SQL作业访问外部数据源数据的操作步骤。

什么是数据湖探索服务_数据湖探索DLI用途与特点

及时了解数据变化,调整营销策略。 使用DLI进行电商实时业务数据分析 数据湖探索优势 支持SQL操作: DLI提供标准SQL接口,用户仅需使用SQL便可实现海量数据查询分析。SQL语法全兼容标准ANSI SQL 2003。 跨源分析: 支持多种数据格式,云上多种数据源、ECS自建

什么是Flink OpenSource SQL_数据湖探索_Flink OpenSource SQL

通过创建PostgreSQL CDC来监控Postgres的数据变化,并将数据信息插入到DWS数据库中。 PostgreSQL CDC读取数据写入到DWS JDBC或ODBC提交Spark SQL作业 通过创建MySQL CDC源表来监控MySQL数据变化,并将变化的数据信息插入到DWS数据库中。

什么是跨源连接-数据湖探索DLI跨源连接

跨源连接的特点与用途 DLI支持原生Spark的跨源连接能力,并在其基础上进行了扩展,能够通过SQL语句、Spark作业或者Flink作业访问其他数据存储服务并导入、查询、分析处理其中的数据数据湖探索跨源连接的功能是打通数据源之间的网络连接。 数据湖探索跨源连接的功能是打通数据源之间的网络

华为优惠券_爆款优惠券_华为云券

。 代金和现金的使用方法一样,支付订单时,系统会自动获取所有满足条件的代金和现金,您可以直接选择使用;抵扣按需费用时,系统会自动选择使用代金和现金。 代金和现金的使用规则区别如下: 1、现金可以与其他叠加使用。现金和代金叠加使用时,优先抵扣代金;现金券和

数据治理中心_数据开发_数据开发能力_脚本和节点介绍-华为云

Studio DLI Flink Job 通过DLI Flink Job节点执行一个预先定义的DLI作业,实现实时流式大数据分析。 数据开发 数据治理中心 作业节点DLI Flink Job 数据治理中心 DataArts Studio DLI SQL 通过DLI SQL节点传递SQ

免费优惠券领取_专享优惠券_服务器优惠券

华为认证优惠申请 华为认证优惠是代金和折扣的统称,是指华为云提供给客户的优惠凭证。本专题主要为用户提供了怎样申请华为认证优惠、怎样领取通用优惠、什么是华为充值优惠、华为充值优惠使用限制以及华为认证优惠申请相关文章推荐等内容。 华为认证优惠是代金和折扣的统称,是

优惠券_华为优惠券怎么领取_优惠券领取

多不可用产品以代金实际显示为准,不支持按量(需)产品; 5)优惠支持和渠道折扣、折扣、其他优惠叠加使用,每个订单只能使用1张优惠; 6)优惠仅用于用户本账户下使用,不得转让或出售。 4、官网-新购/变更/续费 优惠说明: 1) 新购/变更优惠(满5000减150

华为云优惠券_优惠券领取入口_怎么领取优惠券

领取的华为云优惠券使用时的注意事项: 优惠包括代金、折扣和现金。 折扣使用注意事项: 1、一次支付只能使用一张折扣。 2、折扣仅适用于华为云包年/包月产品,按需产品不支持使用折扣。 3、折扣使用后不可退。 现金使用注意事项: 1、现金仅适用于华为云产品和云市场严选商品,不适用于云市场普通商品,具体以现金券适用说明为准。

DLI支持券SQL数据分析吗

功能描述

DLI支持将Flink作业数据输出到ClickHouse 数据库 中,表类型仅支持结果表。

ClickHouse是面向联机分析处理的列式数据库,支持SQL查询,且查询性能好,特别是基于大宽表的聚合分析查询性能非常优异,比其他分析型数据库速度快一个数量级。详细请参考ClickHouse组件操作

表1 支持类别

类别

详情

支持表类型

结果表

前提条件

  • 该场景作业需要运行在DLI的独享队列上。
  • 该场景需要与ClickHouse建立增强型跨源连接,并根据实际情况设置ClickHouse集群所在安全组规则中的端口。

    如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。

    如何设置安全组规则,请参见 虚拟私有云 用户指南》中“安全组”章节。

注意事项

  • 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.15”,勾选“保存作业日志”并设置保存作业日志的 OBS 桶,方便后续查看作业日志。
  • 认证用的username和password等硬编码到代码中或者明文存储都有很大的安全风险,建议使用 DEW 管理凭证。配置文件或者环境变量中密文存放,使用时解密,确保安全。Flink Opensource SQL使用DEW管理访问凭据
  • 创建 MRS 的ClickHouse集群,集群版本选择MRS 3.1.0及以上版本。
  • ClickHouse结果表不支持删除表数据操作。
  • Flink中支持字段类型范围为:string、tinyint、smallint、int、bigint、float、double、date、timestamp、decimal以及Array。

    其中Array中的数据类型仅支持int、bigint、string、float、double。

语法格式

1
2
3
4
5
6
7
8
9
create table clickhouseSink (
  attr_name attr_type 
  (',' attr_name attr_type)* 
)
with (
  'type' = 'clickhouse',
  'url' = '',
  'table-name' = ''
);

参数说明

表2 参数说明

参数

是否必选

默认值

数据类型

说明

connector

String

固定为:clickhouse

url

String

ClickHouse的url。

参数格式为:jdbc:clickhouse://ClickHouseBalancer实例业务IP1:ClickHouseBalancer端口,ClickHouseBalancer实例业务IP2:ClickHouseBalancer端口/数据库名

  • ClickHouseBalancer实例的IP地址:

    登录MRS管理控制台,选择“集群名称 > 组件管理 > ClickHouse > 实例”,获取ClickHouseBalancer实例的业务IP。

  • ClickHouseBalancer端口:

    登录MRS管理控制台,选择“集群名称 > 组件管理 > ClickHouse > 服务配置”,角色选择“ClickHouseBalancer”。当MRS集群未开启Kerberos认证时,搜索“lb_http_port”配置参数值,默认值为21425;当开启Kerberos认证时,搜索“lb_https_port”配置参数值,默认值为21426。

  • 数据库名为ClickHouse集群创建的数据库名称。如果数据库名不存在,则不需要填写。
  • 建议配置多个ClickHouseBalancer实例IP以避免ClickHouseBalancer实例单点故障。
  • MRS集群开启开启Kerberos认证时,还需要在url中加上ssl、sslmode请求参数,将ssl设为true,sslmode设为none,示例见示例2

table-name

String

ClickHouse的表名。

driver

ru.yandex.clickhouse.ClickHouseDriver

String

连接数据库所需要的驱动。若未配置,则会自动通过URL提取,默认为ru.yandex.clickhouse.ClickHouseDriver。

username

String

访问ClickHouse数据库的账号名,MRS集群开启Kerberos认证时需要填写。

password

String

访问ClickHouse数据库账号的密码,MRS集群开启Kerberos认证时需要填写。

sink.buffer-flush.max-rows

100

Integer

写数据时刷新数据的最大行数,默认值为100。

sink.buffer-flush.interval

1s

Duration

刷新数据的时间间隔,单位可以为ms、milli、millisecond/s、sec、second/min、minute等,默认值为1s。设置为0则表示不根据时间刷新。

sink.max-retries

3

Integer

写数据失败时的最大尝试次数,默认值为3。

示例

  • 示例1:从Kafka中读取数据,并将数据插入ClickHouse中(ClickHouse版本为MRS的21.3.4.25,且MRS集群未开启Kerberos认证):
    1. 参考增强型跨源连接,在DLI上根据ClickHouse和Kafka集群所在的虚拟 私有云 和子网分别创建跨源连接,并绑定所要使用的Flink弹性资源池。
    2. 设置ClickHouse和Kafka集群安全组的入向规则,使其对当前将要使用的Flink作业队列网段放通。参考测试地址连通性根据ClickHouse和Kafka的地址测试队列连通性。如果能连通,则表示跨源已经绑定成功,否则表示未成功。
    3. 使用ClickHouse客户端连接到ClickHouse服务端,并使用以下命令查询集群标识符cluster等其他环境参数信息。

      详细操作请参考从零开始使用ClickHouse

      select cluster,shard_num,replica_num,host_name from system.clusters;
      其返回信息如下图:
      ┌─cluster────┬────┬─shard_num─┐
      │ default_cluster │    1   │           1 │
      │ default_cluster │    1   │           2 │
      └──────── ┴────┴────── ┘

      根据获取到的集群标识符cluster,例如当前为default_cluster ,使用以下命令在ClickHouse的default_cluster集群节点上创建数据库flink。

      CREATE DATAB AS E flink ON CLUSTER default_cluster;
    4. 使用以下命令在default_cluster集群节点上和flink数据库下创建表名为order的ReplicatedMergeTree表。
      CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
    5. 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业脚本,并提交运行。该作业脚本将DMS Kafka作为数据源,ClickHouse作业结果表。

      如下脚本中的加粗参数请根据实际环境修改。

      create table orders (
        order_id string,
        order_channel string,
        order_time string,
        pay_amount double,
        real_pay double,
        pay_time string,
        user_id string,
        user_name string,
        area_id string
      ) WITH (
        'connector' = 'kafka',
        'topic' = 'KafkaTopic',
        'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',
        'properties.group.id' = 'GroupId',
        'scan.startup.mode' = 'latest-offset',
        'format' = 'json'
      );
      
      create table clickhouseSink(
        order_id string,
        order_channel string,
        order_time string,
        pay_amount double,
        real_pay double,
        pay_time string,
        user_id string,
        user_name string,
        area_id string
      ) with (
        'connector' = 'clickhouse',
        'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink',
        'username' = 'username',
        'password' = 'password',
        'table-name' = 'order',
        'sink.buffer-flush.max-rows' = '10',
        'sink.buffer-flush.interval' = '3s'
      );
      
      insert into clickhouseSink select * from orders;
    6. 连接Kafka集群,向DMS Kafka中插入以下测试数据:
      {"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
      
      {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
      
      {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
    7. 使用ClickHouse客户端连接到ClickHouse,执行以下查询命令,查询写入flink数据库下order表中的数据。
      select * from flink.order;

      查询结果参考如下:

      202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106
      
      202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 
      
      202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110 
  • 示例2:从Kafka中读取数据,并将数据插入ClickHouse中(ClickHouse版本为MRS的21.3.4.25,且MRS集群开启Kerberos认证)
    1. 参考增强型跨源连接,在DLI上根据ClickHouse和Kafka集群所在的虚拟私有云和子网分别创建跨源连接,并绑定所要使用的Flink弹性资源池。
    2. 设置ClickHouse和Kafka集群安全组的入向规则,使其对当前将要使用的Flink作业队列网段放通。参考测试地址连通性根据ClickHouse和Kafka的地址测试队列连通性。如果能连通,则表示跨源已经绑定成功,否则表示未成功。
    3. 使用ClickHouse客户端连接到ClickHouse服务端,并使用以下命令查询集群标识符cluster等其他环境参数信息。

      参考从零开始使用ClickHouse

      select cluster,shard_num,replica_num,host_name from system.clusters;
      其返回信息如下图:
      ┌─cluster────┬────┬─shard_num─┐
      │ default_cluster │    1   │           1 │
      │ default_cluster │    1   │           2 │
      └──────── ┴────┴────── ┘

      根据获取到的集群标识符cluster,例如当前为default_cluster ,使用以下命令在ClickHouse的default_cluster集群节点上创建数据库flink。

      CREATE DATABASE flink ON CLUSTER default_cluster;
    4. 使用以下命令在default_cluster集群节点上和flink数据库下创建表名为order的ReplicatedMergeTree表。
      CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
    5. 参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业脚本,并提交运行。该作业脚本将Kafka作为数据源,ClickHouse作业结果表。

      如下脚本中的加粗参数请根据实际环境修改。

      create table orders (
        order_id string,
        order_channel string,
        order_time string,
        pay_amount double,
        real_pay double,
        pay_time string,
        user_id string,
        user_name string,
        area_id string
      ) WITH (
        'connector' = 'kafka',
        'topic' = 'KafkaTopic',
        'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',
        'properties.group.id' = 'GroupId',
        'scan.startup.mode' = 'latest-offset',
        'format' = 'json'
      );
      
      create table clickhouseSink(
        order_id string,
        order_channel string,
        order_time string,
        pay_amount double,
        real_pay double,
        pay_time string,
        user_id string,
        user_name string,
        area_id string
      ) with (
        'connector' = 'clickhouse',
        'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink?ssl=true&sslmode=none',
        'table-name' = 'order',
        'username' = 'username',
        'password' = 'password', --DEW凭据中的key
        'sink.buffer-flush.max-rows' = '10',
        'sink.buffer-flush.interval' = '3s',
        'dew.endpoint'='kms.xx.xx.com', --使用的DEW服务所在的endpoint信息
        'dew.csms.secretName'='xx', --DEW服务通用凭据的凭据名称
        'dew.csms.decrypt.fields'='password', --password字段值需要利用DEW凭证管理,进行解密替换
        'dew.csms.version'='v1'
      );
      
      insert into clickhouseSink select * from orders;
    6. 连接Kafka集群,向Kafka中插入以下测试数据:
      {"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
      
      {"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}
      
      {"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
    7. 使用ClickHouse客户端连接到ClickHouse,执行以下查询命令,查询写入flink数据库下order表中的数据。
      select * from flink.order;

      查询结果参考如下:

      202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106
      
      202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 
      
      202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110 

DLI支持券SQL数据分析吗常见问题

更多常见问题 >>
  • DLI在开源Spark基础上进行了大量的性能优化与服务化改造,不仅兼容Apache Spark生态和接口,性能较开源提升了2.5倍,在小时级即可实现EB级数据查询分析。

  • 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理等,挖掘和探索数据价值

  • GaussDB(for MySQL)支持的数据库驱动介绍。

  • 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理等,挖掘和探索数据价值

  • DLI表表示数据存储在数据湖探索(DLI)内部的表。查询性能更好,适用于对时延敏感类的业务,如交互类的查询等。

  • Flink是一款分布式的计算引擎,可以用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时地处理一些实时数据流,实时地产生数据的结果。DLI在开源Flink基础上进行了特性增强和安全增强,提供了数据处理所必须的Stream SQL特性。