集群部署(Cluster)

1、集群部署

  • PostgreSQL (8.2.15+) or MySQL (5.6或者5.7系列) : 两者任选其一即可
  • (1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量
  • ZooKeeper (3.4.6+) :必装
  • Hadoop (2.6+) or MinIO :选装,如果需要用到资源上传功能,可以选择上传到Hadoop or MinIO上

1.2 : 下载后端tar.gz包

  • 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: (以1.2.1版本为例),下载后上传tar包到该目录中,并进行解压
  1. mkdir -p /opt/dolphinscheduler;
  2. cd /opt/dolphinscheduler;
  3. # 解压缩
  4. tar -zxvf apache-dolphinscheduler-incubating-1.2.1-dolphinscheduler-bin.tar.gz -C /opt/dolphinscheduler;
  5. mv apache-dolphinscheduler-incubating-1.2.1-dolphinscheduler-bin dolphinscheduler-bin
  • 所有部署调度的机器上创建部署用户,并且一定要配置sudo免密。假如我们计划在ds1,ds2,ds3,ds4这4台机器上部署调度,首先需要在每台机器上都创建部署用户
  1. # 设置用户名,请自行修改,后面以dolphinscheduler为例
  2. useradd dolphinscheduler;
  3. # 设置用户密码,请自行修改,后面以dolphinscheduler123为例
  4. echo "dolphinscheduler123" | passwd --stdin dolphinscheduler
  5. # 配置sudo免密
  6. echo 'dolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers
  7. sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers
  1. 注意:
  2. - 因为是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。
  3. - 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉
  4. - 如果用到资源上传的话,还需要在`HDFS或者MinIO`上给该部署用户分配读写的权限

1.4 : 配置hosts映射和ssh打通及修改目录权限

  • 以第一台机器(hostname为ds1)作为部署机,在ds1上配置所有待部署机器的hosts, 在ds1以root登录

    1. vi /etc/hosts
    2. #add ip hostname
    3. 192.168.xxx.xxx ds1
    4. 192.168.xxx.xxx ds2
    5. 192.168.xxx.xxx ds3

    注意:请删掉或者注释掉127.0.0.1这行

  • 同步ds1上的/etc/hosts到所有部署机器

    1. for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname
    2. do
    3. sudo scp -r /etc/hosts $ip:/etc/ #在运行中需要输入root密码
    4. done

    备注:当然 通过sshpass -p xxx sudo scp -r /etc/hosts $ip:/etc/就可以省去输入密码了

  • 在ds1上,切换到部署用户并配置ssh本机免密登录

    1. su dolphinscheduler;
    2. ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    3. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    4. chmod 600 ~/.ssh/authorized_keys
  • 在ds1上,配置部署用户dolphinscheduler ssh打通到其他待部署的机器

    1. su dolphinscheduler;
    2. for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname
    3. do
    4. ssh-copy-id $ip #该操作执行过程中需要手动输入dolphinscheduler用户的密码
    5. done
    6. # 当然 通过 sshpass -p xxx ssh-copy-id $ip 就可以省去输入密码了
  • 在ds1上,修改目录权限,使得部署用户对dolphinscheduler-bin目录有操作权限

  • 进入数据库,默认数据库是PostgreSQL,如选择MySQL的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下,这里以MySQL为例
  1. mysql -uroot -p
  • 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。注: {user} 和 {password} 需要替换为具体的数据库用户名和密码
  1. mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
  2. mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED BY '{password}';
  3. mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost' IDENTIFIED BY '{password}';
  4. mysql> flush privileges;
  • 创建表和导入基础数据

    • 修改 conf 目录下 application-dao.properties 中的下列配置
    1. vi conf/application-dao.properties
    • 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [ ] 包到 lib 目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
    1. #postgre
    2. #spring.datasource.driver-class-name=org.postgresql.Driver
    3. #spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler
    4. # mysql
    5. spring.datasource.driver-class-name=com.mysql.jdbc.Driver
    6. spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8 需要修改ip
    7. spring.datasource.username=xxx 需要修改为上面的{user}值
    8. spring.datasource.password=xxx 需要修改为上面的{password}值
    • 修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
    1. sh script/create-dolphinscheduler.sh

注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“ 错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量

1.6 : 修改运行参数

  • 修改 conf/env 目录下的 .dolphinscheduler_env.sh 环境变量(以相关用到的软件都安装在/opt/soft下为例)

    1. export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop
    2. #export SPARK_HOME1=/opt/soft/spark1
    3. export SPARK_HOME2=/opt/soft/spark2
    4. export PYTHON_HOME=/opt/soft/python
    5. export JAVA_HOME=/opt/soft/java
    6. export FLINK_HOME=/opt/soft/flink
    7. export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH:$FLINK_HOME/bin:$PATH

    注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉

  • 将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例)

    1. sudo ln -s /opt/soft/java/bin/java /usr/bin/java
  • 修改一键部署脚本 install.sh中的各参数,特别注意以下参数的配置

特别注意:

  • 如果需要用资源上传到Hadoop集群功能, 并且Hadoop集群的NameNode 配置了 HA的话 ,需要开启 HDFS类型的资源上传,同时需要将Hadoop集群下的core-site.xml和hdfs-site.xml复制到/opt/dolphinscheduler/conf,非NameNode HA跳过次步骤
  • 切换到部署用户dolphinscheduler,然后执行一键部署脚本

    sh install.sh

    1. 注意:
    2. 第一次部署的话,在运行中第3`3,stop server`出现5次以下信息,此信息可以忽略
    3. sh: bin/dolphinscheduler-daemon.sh: No such file or directory
  1. MasterServer ----- master服务
  2. WorkerServer ----- worker服务
  3. LoggerServer ----- logger服务
  4. ApiApplicationServer ----- api服务
  5. AlertServer ----- alert服务

如果以上服务都正常启动,说明自动部署成功

部署成功后,可以进行日志查看,日志统一存放于logs文件夹内

  1. logs/
  2. ├── dolphinscheduler-alert-server.log
  3. ├── dolphinscheduler-master-server.log
  4. |—— dolphinscheduler-worker-server.log
  5. |—— dolphinscheduler-api-server.log
  6. |—— dolphinscheduler-logger-server.log

1.8 : 登录系统

2、启停服务

  • 一键停止集群所有服务

    sh ./bin/stop-all.sh

  • 一键开启集群所有服务

    sh ./bin/start-all.sh

  • 启停Master

  1. sh ./bin/dolphinscheduler-daemon.sh start master-server
  2. sh ./bin/dolphinscheduler-daemon.sh stop master-server
  • 启停Worker
  1. sh ./bin/dolphinscheduler-daemon.sh start worker-server
  2. sh ./bin/dolphinscheduler-daemon.sh stop worker-server
  • 启停Api
  1. sh ./bin/dolphinscheduler-daemon.sh start api-server
  2. sh ./bin/dolphinscheduler-daemon.sh stop api-server
  • 启停Logger
  1. sh ./bin/dolphinscheduler-daemon.sh start logger-server

注:服务用途请具体参见《系统架构设计》小节