数据治理中心 DATAARTS STUDIO-开发一个DLI Spark作业:提交Spark作业

时间:2024-01-19 11:52:26

提交Spark作业

用户需要在数据开发模块中创建一个作业,通过作业的DLI Spark节点提交Spark作业。

  1. 创建一个数据开发模块空作业,作业名称为“job_DLI_Spark”

    图3 创建作业

  2. 然后进入作业开发页面,拖动DLI Spark节点到画布并单击,配置节点的属性。

    图4 配置节点属性

    关键属性说明:

    • DLI集群名称:DLI中创建的Spark集群。
    • 作业运行资源:DLI Spark节点运行时,限制最大可以使用的CPU、内存资源。
    • 作业主类:DLI Spark节点的主类,本例的主类是“org.apache.spark.examples.SparkPi”
    • Jar包资源:3中创建的资源。

  3. 作业编排完成后,单击,测试运行作业。

    图5 作业日志(仅参考)

  4. 如果日志运行正常,保存作业并提交版本。
support.huaweicloud.com/usermanual-dataartsstudio/dataartsstudio_01_0521.html