该解决方案有何用途?

该解决方案通过使用分布式消息服务 Kafka版获取电商平台实时写入的商品的订单信息,使用数据湖探索 DLI Flink SQL作业对业务数据进行处理分析,实时统计每种渠道的相关指标,输出存储到云数据库 RDS中,并在数据可视化 DLV大屏展示。从而帮助电商平台统计每天各平台的实时访问数据量、订单数、访问人数等等指标,并在显示大屏上实时展示相关数据,方便电商平台及时了解数据变化,有针对性地调整营销策略。适用于通过web方式访问、通过app的方式访问、通过微信小程序的方式访问等等电商线上购物。

方案架构

该解决方案基于数据湖探索 DLI完成电商业务实时数据的分析处理,获取各个渠道的销售汇总数据。

基于DLI电商数据分析与处理

版本:1.0.0

上次更新日期:2023年6月

来源:由华为云构建

部署:预计15分钟

卸载:预计10分钟

架构描述



该解决方案会部署如下资源:



1. 创建一台云数据库 RDS for MySQL实例,用于存储统计的订单指标数据,从而展示在数据可视化DLV大屏。


2. 创建分布式消息服务 Kafka版专享版实例,并创建 Topic,用于电商平台写入业务数据,为用户提供便捷高效的消息队列。


3. 创建数据湖探索 DLI增强型跨源队列,并创建Flink作业,用于分析和处理电商平台的业务数据。


4. 创建一个对象存储服务 OBS桶,用于用户上传业务数据表csv文件。


5. 使用函数工作流 FunctionGraph创建一个函数,通过OBS触发器,实现将用户上传至OBS桶中的业务数据写入Kafka,同时在RDS创建数据结果表模板。


用户可以购买并配置数据可视化 DLV大屏,快速定制数据大屏,将RDS中分析结果数据展示在大屏中。

架构描述


该解决方案会部署如下资源:



1. 创建一台云数据库 RDS for MySQL实例,用于存储统计的订单指标数据,从而展示在数据可视化DLV大屏。


2. 创建分布式消息服务 Kafka版专享版实例,并创建 Topic,用于电商平台写入业务数据,为用户提供便捷高效的消息队列。


3. 创建数据湖探索 DLI增强型跨源队列,并创建Flink SQL作业,用于分析和处理电商平台的业务数据。


4. 创建一个对象存储服务 OBS桶,用于用户上传业务数据csv文件。


5. 使用函数工作流 FunctionGraph创建一个函数,通过OBS触发器,实现将用户上传至OBS桶中的业务数据写入Kafka,同时在RDS创建数据结果表模板。


用户可以购买并配置数据可视化 DLV大屏,快速定制数据大屏,将RDS中分析结果数据展示在大屏中。

展开内容
收起内容