数据湖探索 DLI-创建并提交Spark Jar作业:后续指引
后续指引
完成Spark Jar作业快速入门操作后,如果您想了解更多关于Spark Jar作业相关操作,建议您参考以下指引阅读。
分类 |
文档 |
说明 |
---|---|---|
界面操作 |
提供Spark Jar作业管理界面功能介绍。 |
|
针对不同角色用户,您可以通过权限设置分配不同的程序包组或程序包,不同用户之间的作业效率互不影响,保障作业性能。 |
||
开发指南 |
提供Spark SQL相关的数据库、表、分区、导入及导出数据、自定义函数、内置函数等语法说明和样例指导。 |
|
提供Spark Jar相关API的使用说明。 |
||
提供执行Spark批处理作业的接口样例说明。 |
- 什么是Spark SQL作业_数据湖探索DLISpark SQL作业
- 什么是数据湖探索服务_数据湖探索DLI用途与特点
- 数据治理中心_数据开发_数据开发示例_使用教程-华为云
- 什么是Flink OpenSource SQL_数据湖探索_Flink OpenSource SQL
- ModelArts模型训练_创建训练作业_如何创建训练作业
- MapReduce服务_什么是Flink_如何使用Flink
- 什么是跨源连接-数据湖探索DLI跨源连接
- 数据治理中心_数据开发_数据开发能力_脚本和节点介绍-华为云
- 华为云内容审核服务_内容审核有什么作用_华为云内容审核的优势
- 什么是弹性资源池_数据湖探索DLI弹性资源池