无 HDFS 部署

    部署整体流程参考 “快速部署”,需要修改如下少许内容。

    去HDFS模式部署不支持hive/spark/flink引擎等任务

    将上述的配置修改为 false 之后,就不需要再单独配置 HDFS/HIVE/SPARK 等环境了, 安装部署时也会跳过这些基础环境的检查。

    因为 mysql-connector-java 驱动是 GPL2.0 协议,不满足Apache开源协议关于license的政策,所以需要我们手动将其拷贝到如下两个目录下

    参考 “快速部署” 部分,通过执行 ${LINKIS_HOME}/bin/install.sh 命令完成部署。 参考 “快速部署” 部分,通过执行 ${LINKIS_HOME}/sbin/linkis-start-all.sh 命令启动 Linkis 服务。

    目前 1.1.2 版本只支持 shell 作业在非 HDFS 环境中运行,执行命令如下