系统使用手册

    操作指南

    首页包含用户所有项目的任务状态统计、流程状态统计、工作流定义统计。

    2. 项目管理

    2.1 创建项目

    • 点击”项目管理”进入项目管理页面,点击“创建项目”按钮,输入项目名称,项目描述,点击“提交”,创建新的项目。

      用户手册 - 图2

    2.2 项目首页

    • 在项目管理页面点击项目名称链接,进入项目首页,如下图所示,项目首页包含该项目的任务状态统计、流程状态统计、工作流定义统计。

    • 任务状态统计:在指定时间范围内,统计任务实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数

    • 流程状态统计:在指定时间范围内,统计工作流实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数

    • 工作流定义统计:统计用户创建的工作流定义及管理员授予该用户的工作流定义

    2.3 工作流定义

    2.3.1 创建工作流定义

    • 点击项目管理->工作流->工作流定义,进入工作流定义页面,点击“创建工作流”按钮,进入工作流DAG编辑页面,如下图所示:

      用户手册 - 图4

    • 工具栏中拖拽到画板中,新增一个Shell任务,如下图所示:

      用户手册 - 图6

    • 添加shell任务的参数设置:

    1. 填写“节点名称”,“描述”,“脚本”字段;
    2. “运行标志”勾选“正常”,若勾选“禁止执行”,运行工作流不会执行该任务;
    3. 选择“任务优先级”:当worker线程数不足时,级别高的任务在执行队列中会优先执行,相同优先级的任务按照先进先出的顺序执行;
    4. 超时告警(非必选):勾选超时告警、超时失败,填写“超时时长”,当任务执行时间超过超时时长,会发送告警邮件并且任务超时失败;
    5. 资源(非必选)。资源文件是资源中心->文件管理页面创建或上传的文件,如文件名为,脚本中调用资源命令为sh test.sh
    6. 自定义参数(非必填),参考自定义参数
    7. 点击”确认添加”按钮,保存任务设置。
    • 增加任务执行的先后顺序: 点击右上角图标连接任务;如下图所示,任务2和任务3并行执行,当任务1执行完,任务2、3会同时执行。

      用户手册 - 图8

    • 删除依赖关系: 点击右上角”箭头”图标,选中连接线,点击右上角”删除”图标用户手册 - 图10,删除任务间的依赖关系。

    • 保存工作流定义: 点击”保存“按钮,弹出”设置DAG图名称”弹框,如下图所示,输入工作流定义名称,工作流定义描述,设置全局参数(选填,参考),点击”添加”按钮,工作流定义创建成功。

      用户手册 - 图12

    其他类型任务,请参考 任务节点类型和参数设置

    2.3.2 工作流定义操作功能

    点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示:

    工作流定义列表的操作功能如下:

    • 编辑: 只能编辑”下线”的工作流定义。工作流DAG编辑同创建工作流定义
    • 上线: 工作流状态为”下线”时,上线工作流,只有”上线”状态的工作流能运行,但不能编辑。
    • 下线: 工作流状态为”上线”时,下线工作流,下线状态的工作流可以编辑,但不能运行。
    • 运行: 只有上线的工作流能运行。运行操作步骤见
    • 定时: 只有上线的工作流能设置定时,系统自动定时调度工作流运行。创建定时后的状态为”下线”,需在定时管理页面上线定时才生效。定时操作步骤见2.3.4 工作流定时
    • 定时管理: 定时管理页面可编辑、上线/下线、删除定时。
    • 删除: 删除工作流定义。
    • 下载: 下载工作流定义到本地。
    • 树形图: 以树形结构展示任务节点的类型及任务状态,如下图所示:

      用户手册 - 图14

    2.3.3 运行工作流

    • 点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示,点击”上线”按钮,上线工作流。

      用户手册 - 图16

    • 点击”运行“按钮,弹出启动参数设置弹框,如下图所示,设置启动参数,点击弹框中的”运行”按钮,工作流开始运行,工作流实例页面生成一条工作流实例。

    工作流运行参数说明:

    • 补数: 执行指定日期的工作流定义,可以选择补数时间范围(目前只支持针对连续的天进行补数),比如需要补5月1号到5月10号的数据,如下图所示:

      用户手册 - 图18

      串行模式:补数从5月1号到5月10号依次执行,依次在流程实例页面生成十条流程实例;

      并行模式:同时执行5月1号到5月10号的任务,同时在流程实例页面生成十条流程实例。

    2.3.4 工作流定时

    • 创建定时:点击项目管理->工作流->工作流定义,进入工作流定义页面,上线工作流,点击”定时”按钮,弹出定时参数设置弹框,如下图所示:

      用户手册 - 图20

    • 选择起止时间。在起止时间范围内,定时运行工作流;不在起止时间范围内,不再产生定时工作流实例。

    • 添加一个每天凌晨5点执行一次的定时,如下图所示:

    • 失败策略、通知策略、流程优先级、Worker分组、通知组、收件人、抄送人同。

    • 点击”创建”按钮,创建定时成功,此时定时状态为”下线“,定时需上线才生效。
    • 定时上线:点击”定时管理”按钮用户手册 - 图22,进入定时管理页面,点击”上线”按钮,定时状态变为”上线”,如下图所示,工作流定时生效。

    2.3.5 导入工作流

    点击项目管理->工作流->工作流定义,进入工作流定义页面,点击”导入工作流”按钮,导入本地工作流文件,工作流定义列表显示导入的工作流,状态为下线。

    2.4 工作流实例

    2.4.1 查看工作流实例

    • 点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:

      用户手册 - 图24

    • 点击工作流名称,进入DAG查看页面,查看任务执行状态,如下图所示。

    2.4.2 查看任务日志

    • 进入工作流实例页面,点击工作流名称,进入DAG查看页面,双击任务节点,如下图所示:

      用户手册 - 图26

    • 点击”查看日志”,弹出日志弹框,如下图所示,任务实例页面也可查看任务日志,参考任务查看日志

    2.4.3 查看任务历史记录

    • 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面;
    • 双击任务节点,如下图所示,点击”查看历史”,跳转到任务实例页面,并展示该工作流实例运行的任务实例列表

      用户手册 - 图28

    2.4.4 查看运行参数

    • 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面;
    • 点击左上角图标,查看工作流实例的启动参数;点击图标用户手册 - 图30,查看工作流实例的全局参数和局部参数,如下图所示:

    2.4.4 工作流实例操作功能

    点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:

    • 编辑: 只能编辑已终止的流程。点击”编辑”按钮或工作流实例名称进入DAG编辑页面,编辑后点击”保存”按钮,弹出保存DAG弹框,如下图所示,在弹框中勾选”是否更新到工作流定义”,保存后则更新工作流定义;若不勾选,则不更新工作流定义。

      用户手册 - 图33

    • 重跑: 重新执行已经终止的流程。

    • 恢复失败: 针对失败的流程,可以执行恢复失败操作,从失败的节点开始执行。
    • 停止: 对正在运行的流程进行停止操作,后台会先killworker进程,再执行kill -9操作
    • 暂停: 对正在运行的流程进行暂停操作,系统状态变为等待执行,会等待正在执行的任务结束,暂停下一个要执行的任务。
    • 恢复暂停: 对暂停的流程恢复,直接从暂停的节点开始运行
    • 删除: 删除工作流实例及工作流实例下的任务实例
    • 甘特图: Gantt图纵轴是某个工作流实例下的任务实例的拓扑排序,横轴是任务实例的运行时间,如图示:

    2.5 任务实例

    • 点击项目管理->工作流->任务实例,进入任务实例页面,如下图所示,点击工作流实例名称,可跳转到工作流实例DAG图查看任务状态。

      用户手册 - 图35

    • 查看日志:点击操作列中的“查看日志”按钮,可以查看任务执行的日志情况。

    3.1 hdfs资源配置

    1. conf/common.properties
    2. # Users who have permission to create directories under the HDFS root path
    3. hdfs.root.user=hdfs
    4. # data base dir, resource file will store to this hadoop hdfs path, self configuration, please make sure the directory exists on hdfs and have read write permissions。"/dolphinscheduler" is recommended
    5. resource.upload.path=/dolphinscheduler
    6. # resource storage type : HDFS,S3,NONE
    7. resource.storage.type=HDFS
    8. # whether kerberos starts
    9. hadoop.security.authentication.startup.state=false
    10. # java.security.krb5.conf path
    11. java.security.krb5.conf.path=/opt/krb5.conf
    12. # loginUserFromKeytab user
    13. # loginUserFromKeytab path
    14. login.user.keytab.path=/opt/hdfs.headless.keytab
    15. # if resource.storage.type is HDFS,and your Hadoop Cluster NameNode has HA enabled, you need to put core-site.xml and hdfs-site.xml in the installPath/conf directory. In this example, it is placed under /opt/soft/dolphinscheduler/conf, and configure the namenode cluster name; if the NameNode is not HA, modify it to a specific IP or host name.
    16. # if resource.storage.type is S3,write S3 address,HA,for example :s3a://dolphinscheduler,
    17. # Note,s3 be sure to create the root directory /dolphinscheduler
    18. fs.defaultFS=hdfs://mycluster:8020
    19. #resourcemanager ha note this need ips , this empty if single
    20. yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx
    21. # If it is a single resourcemanager, you only need to configure one host name. If it is resourcemanager HA, the default configuration is fine
    22. yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s

    3.2 文件管理

    是对各种资源文件的管理,包括创建基本的txt/log/sh/conf/py/java等文件、上传jar包等各种类型文件,可进行编辑、重命名、下载、删除等操作。

    用户手册 - 图37

    • 创建文件

    文件格式支持以下几种类型:txt、log、sh、conf、cfg、py、java、sql、xml、hql、properties

    • 上传文件

    上传文件:点击”上传文件”按钮进行上传,将文件拖拽到上传区域,文件名会自动以上传的文件名称补全

    用户手册 - 图39

    • 文件查看

    对可查看的文件类型,点击文件名称,可查看文件详情

    • 下载文件

    点击文件列表的”下载”按钮下载文件或者在文件详情中点击右上角”下载”按钮下载文件

    • 文件重命名

    用户手册 - 图41

    • 删除

    文件列表->点击”删除”按钮,删除指定文件

    3.3 UDF管理

    3.3.1 资源管理

    • 上传udf资源

    和上传文件相同。

    3.3.2 函数管理

    • 创建udf函数

    点击“创建UDF函数”,输入udf函数参数,选择udf资源,点击“提交”,创建udf函数。

    目前只支持HIVE的临时UDF函数

    • UDF函数名称:输入UDF函数时的名称
    • 包名类名:输入UDF函数的全路径
    • UDF资源:设置创建的UDF对应的资源文件

    4. 创建数据源

    数据源中心支持MySQL、POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、ORACLE、SQLSERVER等数据源

    4.1 创建/编辑MySQL数据源

    • 点击“数据源中心->创建数据源”,根据需求创建不同类型的数据源。

    • 数据源:选择MYSQL

    • 数据源名称:输入数据源的名称

    • 描述:输入数据源的描述

    • IP主机名:输入连接MySQL的IP

    • 端口:输入连接MySQL的端口

    • 用户名:设置连接MySQL的用户名

    • 密码:设置连接MySQL的密码

    • 数据库名:输入连接MySQL的数据库名称

    • Jdbc连接参数:用于MySQL连接的参数设置,以JSON形式填写

    用户手册 - 图43

    点击“测试连接”,测试数据源是否可以连接成功。

    4.2 创建/编辑POSTGRESQL数据源

    • 数据源:选择POSTGRESQL
    • 数据源名称:输入数据源的名称
    • 描述:输入数据源的描述
    • IP/主机名:输入连接POSTGRESQL的IP
    • 端口:输入连接POSTGRESQL的端口
    • 用户名:设置连接POSTGRESQL的用户名
    • 密码:设置连接POSTGRESQL的密码
    • 数据库名:输入连接POSTGRESQL的数据库名称
    • Jdbc连接参数:用于POSTGRESQL连接的参数设置,以JSON形式填写

    4.3 创建/编辑HIVE数据源

    1.使用HiveServer2方式连接

    用户手册 - 图45

    • 数据源:选择HIVE
    • 数据源名称:输入数据源的名称
    • 描述:输入数据源的描述
    • IP/主机名:输入连接HIVE的IP
    • 端口:输入连接HIVE的端口
    • 用户名:设置连接HIVE的用户名
    • 密码:设置连接HIVE的密码
    • 数据库名:输入连接HIVE的数据库名称
    • Jdbc连接参数:用于HIVE连接的参数设置,以JSON形式填写

    2.使用HiveServer2 HA Zookeeper方式连接

    注意:如果开启了kerberos,则需要填写 Principal

    用户手册 - 图47

    4.4 创建/编辑Spark数据源

    • 数据源:选择Spark
    • 数据源名称:输入数据源的名称
    • 描述:输入数据源的描述
    • IP/主机名:输入连接Spark的IP
    • 端口:输入连接Spark的端口
    • 用户名:设置连接Spark的用户名
    • 密码:设置连接Spark的密码
    • 数据库名:输入连接Spark的数据库名称
    • Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写

    注意:如果开启了kerberos,则需要填写 Principal

    用户手册 - 图49

    5.1 创建队列

    • 队列是在执行spark、mapreduce等程序,需要用到“队列”参数时使用的。
    • 管理员进入安全中心->队列管理页面,点击“创建队列”按钮,创建队列。

    5.2 添加租户

    • 租户对应的是Linux的用户,用于worker提交作业所使用的用户。如果linux没有这个用户,worker会在执行脚本的时候创建这个用户。
    • 租户编码:租户编码是Linux上的用户,唯一,不能重复
    • 管理员进入安全中心->租户管理页面,点击“创建租户”按钮,创建租户。

    用户手册 - 图51

    5.3 创建普通用户

    • 用户分为管理员用户普通用户
    1. * 管理员有授权和用户管理等权限,没有创建项目和工作流定义的操作的权限。
    2. * 普通用户可以创建项目和对工作流定义的创建,编辑,执行等操作。
    3. * 注意:如果该用户切换了租户,则该用户所在租户下所有资源将复制到切换的新租户下。
    • 管理员进入安全中心->用户管理页面,点击“创建用户”按钮,创建用户。

    编辑用户信息

    • 管理员进入安全中心->用户管理页面,点击”编辑”按钮,编辑用户信息。
    • 普通用户登录后,点击用户名下拉框中的用户信息,进入用户信息页面,点击”编辑”按钮,编辑用户信息。

    修改用户密码

    • 管理员进入安全中心->用户管理页面,点击”编辑”按钮,编辑用户信息时,输入新密码修改用户密码。
    • 普通用户登录后,点击用户名下拉框中的用户信息,进入修改密码页面,输入密码并确认密码后点击”编辑”按钮,则修改密码成功。

    5.4 创建告警组

    • 告警组是在启动时设置的参数,在流程结束以后会将流程的状态和其他信息以邮件形式发送给告警组。

    • 管理员进入安全中心->告警组管理页面,点击“创建告警组”按钮,创建告警组。

    用户手册 - 图53

    5.5 令牌管理

    由于后端接口有登录检查,令牌管理提供了一种可以通过调用接口的方式对系统进行各种操作。

    • 管理员进入安全中心->令牌管理页面,点击“创建令牌”按钮,选择失效时间与用户,点击”生成令牌”按钮,点击”提交”按钮,则选择用户的token创建成功。
    • 普通用户登录后,点击用户名下拉框中的用户信息,进入令牌管理页面,选择失效时间,点击”生成令牌”按钮,点击”提交”按钮,则该用户创建token成功。

    • 调用示例:

    5.6 授予权限

    1. * 授予权限包括项目权限,资源权限,数据源权限,UDF函数权限。
    2. * 管理员可以对普通用户进行非其创建的项目、资源、数据源和UDF函数进行授权。因为项目、资源、数据源和UDF函数授权方式都是一样的,所以以项目授权为例介绍。
    • 管理员进入安全中心->用户管理页面,点击需授权用户的“授权”按钮,如下图所示:

    • 选择项目,进行项目授权。

    用户手册 - 图56

    • 资源、数据源、UDF函数授权同项目授权。

    5.7 Worker分组

    每个worker节点都会归属于自己的Worker分组,默认分组为default.

    在任务执行时,可以将任务分配给指定worker分组,最终由该组中的worker节点执行该任务.

    新增/更新 worker分组

    • 打开要设置分组的worker节点上的”conf/worker.properties”配置文件. 修改worker.groups参数.
    • worker.groups参数后面对应的为该worker节点对应的分组名称,默认为default.
    • 如果该worker节点对应多个分组,则以逗号隔开.

    6. 监控中心

    6.1 服务管理

    • 服务管理主要是对系统中的各个服务的健康状况和基本信息的监控和显示

    6.1.1 master监控

    • 主要是master的相关信息。

    6.1.2 worker监控

    • 主要是worker的相关信息。

    用户手册 - 图58

    6.1.3 Zookeeper监控

    • 主要是zookpeeper中各个worker和master的相关配置信息。

    6.1.4 DB监控

    • 主要是DB的健康状况

    用户手册 - 图60

    6.2 统计管理

    • 待执行命令数:统计t_ds_command表的数据
    • 执行失败的命令数:统计t_ds_error_command表的数据
    • 待运行任务数:统计Zookeeper中task_queue的数据
    • 待杀死任务数:统计Zookeeper中task_kill的数据

    7.1 Shell节点

    • 点击项目管理-项目名称-工作流定义,点击”创建工作流”按钮,进入DAG编辑页面。

    • 工具栏中拖动用户手册 - 图62到画板中,如下图所示:

    • 节点名称:一个工作流定义中的节点名称是唯一的。

    • 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。

    • 描述信息:描述该节点的功能。

    • 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。

    • Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。

    • 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。

    • 超时告警:勾选超时告警、超时失败,当任务超过”超时时长”后,会发送告警邮件并且任务执行失败.

    • 脚本:用户开发的SHELL程序。

    • 资源:是指脚本中需要调用的资源文件列表,资源中心-文件管理上传或创建的文件。

    • 自定义参数:是SHELL局部的用户自定义参数,会替换脚本中以${变量}的内容。

    7.2 子流程节点

    • 子流程节点,就是把外部的某个工作流定义当做一个任务节点去执行。

    拖动工具栏中的PNG任务节点到画板中,如下图所示:

    • 节点名称:一个工作流定义中的节点名称是唯一的
    • 运行标志:标识这个节点是否能正常调度
    • 描述信息:描述该节点的功能
    • 超时告警:勾选超时告警、超时失败,当任务超过”超时时长”后,会发送告警邮件并且任务执行失败.
    • 子节点:是选择子流程的工作流定义,右上角进入该子节点可以跳转到所选子流程的工作流定义

    7.3 依赖(DEPENDENT)节点

    • 依赖节点,就是依赖检查节点。比如A流程依赖昨天的B流程执行成功,依赖节点会去检查B流程在昨天是否有执行成功的实例。

    拖动工具栏中的PNG任务节点到画板中,如下图所示:

    依赖节点提供了逻辑判断功能,比如检查昨天的B流程是否成功,或者C流程是否执行成功。

    用户手册 - 图68

    例如,A流程为周报任务,B、C流程为天任务,A任务需要B、C任务在上周的每一天都执行成功,如图示:

    假如,周报A同时还需要自身在上周二执行成功:

    用户手册 - 图70

    7.4 存储过程节点

    • 根据选择的数据源,执行存储过程。

    拖动工具栏中的任务节点到画板中,如下图所示:

    用户手册 - 图72

    • 数据源:存储过程的数据源类型支持MySQL和POSTGRESQL两种,选择对应的数据源
    • 方法:是存储过程的方法名称
    • 自定义参数:存储过程的自定义参数类型支持IN、OUT两种,数据类型支持VARCHAR、INTEGER、LONG、FLOAT、DOUBLE、DATE、TIME、TIMESTAMP、BOOLEAN九种数据类型

    7.5 SQL节点

    • 拖动工具栏中的任务节点到画板中
    • 非查询SQL功能:编辑非查询SQL任务信息,sql类型选择非查询,如下图所示:

    用户手册 - 图74

    • 查询SQL功能:编辑查询SQL任务信息,sql类型选择查询,选择表格或附件形式发送邮件到指定的收件人,如下图所示。

    • 数据源:选择对应的数据源
    • sql类型:支持查询和非查询两种,查询是select类型的查询,是有结果集返回的,可以指定邮件通知为表格、附件或表格附件三种模板。非查询是没有结果集返回的,是针对update、delete、insert三种类型的操作。
    • sql参数:输入参数格式为key1=value1;key2=value2…
    • sql语句:SQL语句
    • UDF函数:对于HIVE类型的数据源,可以引用资源中心中创建的UDF函数,其他类型的数据源暂不支持UDF函数。
    • 自定义参数:SQL任务类型,而存储过程是自定义参数顺序的给方法设置值自定义参数类型和数据类型同存储过程任务类型一样。区别在于SQL任务类型自定义参数会替换sql语句中${变量}。
    • 前置sql:前置sql在sql语句之前执行。
    • 后置sql:后置sql在sql语句之后执行。

    7.6 SPARK节点

    • 通过SPARK节点,可以直接直接执行SPARK程序,对于spark节点,worker会使用spark-submit方式提交任务

    拖动工具栏中的PNG任务节点到画板中,如下图所示:

    • 程序类型:支持JAVA、Scala和Python三种语言
    • 主函数的class:是Spark程序的入口Main Class的全路径
    • 主jar包:是Spark的jar包
    • 部署方式:支持yarn-cluster、yarn-client和local三种模式
    • Driver内核数:可以设置Driver内核数及内存数
    • Executor数量:可以设置Executor数量、Executor内存数和Executor内核数
    • 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
    • 其他参数:支持 —jars、—files、—archives、—conf格式
    • 资源:如果其他参数中引用了资源文件,需要在资源中选择指定
    • 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容

    注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Spark则没有主函数的class,其他都是一样

    7.7 MapReduce(MR)节点

    • 使用MR节点,可以直接执行MR程序。对于mr节点,worker会使用hadoop jar方式提交任务

    拖动工具栏中的PNG任务节点到画板中,如下图所示:

    1. JAVA程序

    • 主函数的class:是MR程序的入口Main Class的全路径
    • 程序类型:选择JAVA语言
    • 主jar包:是MR的jar包
    • 命令行参数:是设置MR程序的输入参数,支持自定义参数变量的替换
    • 其他参数:支持 –D、-files、-libjars、-archives格式
    • 资源: 如果其他参数中引用了资源文件,需要在资源中选择指定
    • 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容
    1. Python程序

    用户手册 - 图80

    • 程序类型:选择Python语言
    • 主jar包:是运行MR的Python jar包
    • 其他参数:支持 –D、-mapper、-reducer、-input -output格式,这里可以设置用户自定义参数的输入,比如:
    • -mapper “mapper.py 1” -file -reducer reducer.py -file –input /journey/words.txt -output /journey/out/mr/${currentTimeMillis}
    • 其中 -mapper 后的 mapper.py 1是两个参数,,第二个参数是1
    • 资源: 如果其他参数中引用了资源文件,需要在资源中选择指定
    • 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容

    7.8 Python节点

    • 使用python节点,可以直接执行python脚本,对于python节点,worker会使用python **方式提交任务。

    • 脚本:用户开发的Python程序
    • 资源:是指脚本中需要调用的资源文件列表
    • 自定义参数:是Python局部的用户自定义参数,会替换脚本中以${变量}的内容
    • 注意:若引入资源目录树下的python文件,需添加__init__.py文件
    • 拖动工具栏中的用户手册 - 图83任务节点到画板中,如下图所示:

    • 程序类型:支持JAVA、Scala和Python三种语言
    • 主函数的class:是Flink程序的入口Main Class的全路径
    • 主jar包:是Flink的jar包
    • 部署方式:支持cluster、local三种模式
    • slot数量:可以设置slot数
    • taskManage数量:可以设置taskManage数
    • jobManager内存数:可以设置jobManager内存数
    • taskManager内存数:可以设置taskManager内存数
    • 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
    • 其他参数:支持 —jars、—files、—archives、—conf格式
    • 资源:如果其他参数中引用了资源文件,需要在资源中选择指定
    • 自定义参数:是Flink局部的用户自定义参数,会替换脚本中以${变量}的内容

    注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Flink则没有主函数的class,其他都是一样

    7.10 http节点

    • 拖动工具栏中的用户手册 - 图85任务节点到画板中,如下图所示:

    • 节点名称:一个工作流定义中的节点名称是唯一的。
    • 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。
    • 描述信息:描述该节点的功能。
    • 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。
    • Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。
    • 失败重试次数:任务失败重新提交的次数,支持下拉和手填。
    • 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。
    • 超时告警:勾选超时告警、超时失败,当任务超过”超时时长”后,会发送告警邮件并且任务执行失败.
    • 请求地址:http请求URL。
    • 请求类型:支持GET、POSt、HEAD、PUT、DELETE。
    • 请求参数:支持Parameter、Body、Headers。
    • 校验条件:支持默认响应码、自定义响应码、内容包含、内容不包含。
    • 校验内容:当校验条件选择自定义响应码、内容包含、内容不包含时,需填写校验内容。
    • 自定义参数:是http局部的用户自定义参数,会替换脚本中以${变量}的内容。

    7.11 DATAX节点

    • 拖动工具栏中的用户手册 - 图87任务节点到画板中

    • 自定义模板:打开自定义模板开关时,可以自定义datax节点的json配置文件内容(适用于控件配置不满足需求时)
    • 数据源:选择抽取数据的数据源
    • sql语句:目标库抽取数据的sql语句,节点执行时自动解析sql查询列名,映射为目标表同步列名,源表和目标表列名不一致时,可以通过列别名(as)转换
    • 目标库:选择数据同步的目标库
    • 目标表:数据同步的目标表名
    • 前置sql:前置sql在sql语句之前执行(目标库执行)。
    • 后置sql:后置sql在sql语句之后执行(目标库执行)。
    • json:datax同步的json配置文件
    • 自定义参数:SQL任务类型,而存储过程是自定义参数顺序的给方法设置值自定义参数类型和数据类型同存储过程任务类型一样。区别在于SQL任务类型自定义参数会替换sql语句中${变量}。

    8. 参数

    8.1 系统参数

    8.2 时间自定义参数

    • 支持代码中自定义变量名,声明方式:${变量名}。可以是引用 “系统参数” 或指定 “常量”。

    • 我们定义这种基准变量为 […] 格式的,[yyyyMMddHHmmss] 是可以任意分解组合的,比如:$[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd] 等

    • 也可以使用以下格式:

      1. * N 年:$[add_months(yyyyMMdd,12*N)]
      2. * N 年:$[add_months(yyyyMMdd,-12*N)]
      3. * N 月:$[add_months(yyyyMMdd,N)]
      4. * N 月:$[add_months(yyyyMMdd,-N)]
      5. * N 周:$[yyyyMMdd+7*N]
      6. * N 周:$[yyyyMMdd-7*N]
      7. * N 天:$[yyyyMMdd+N]
      8. * N 天:$[yyyyMMdd-N]
      9. * N 小时:$[HHmmss+N/24]
      10. * N 小时:$[HHmmss-N/24]
      11. * N 分钟:$[HHmmss+N/24/60]
      12. * N 分钟:$[HHmmss-N/24/60]

    8.3 用户自定义参数

    • 用户自定义参数分为全局参数和局部参数。全局参数是保存工作流定义和工作流实例的时候传递的全局参数,全局参数可以在整个流程中的任何一个任务节点的局部参数引用。 例如:

    用户手册 - 图89

    • global_bizdate为全局参数,引用的是系统参数。