安装 EngineConnPlugin 引擎
└── dist # 引擎启动需要的依赖和配置,引擎不同的版本需要在该目录防止对应的版本目录
└── v1.2.1 #必须以v开头加上引擎版本号1.2.1
└── conf # 引擎需要的配置文件目录
└── lib # 引擎插件需要的依赖包
└── plugin #引擎插件目录,该目录用于引擎管理服务封装引擎的启动命令和资源申请
└── linkis-engineplugin-hive-1.0.0-RC1.jar #引擎模块包(只需要放置单独的引擎包)
2 引擎安装
- 首先需要确认引擎dist目录配置的主目录:wds.linkis.engineconn.home(LinkisInstall/conf/linkis.properties),该参数为引擎管理器服务用于读取引擎启动所需要配置和依赖的目录,引擎管理器服务如果设置了参数(wds.linkis.engineconn.dist.load.enable=true)会读取该目录下的引擎存放到物料库中。
- 另外需要确认引擎插件加载参数:wds.linkis.engineconn.plugin.loader.store.path,该目录为引擎管理器服务用于反射读取引擎模块包。
- 如果wds.linkis.engineconn.home和wds.linkis.engineconn.plugin.loader.store.path两个参数指定为同一个目录,则可以直接将引擎打出来的目录解压到该目录下,如放置到/appcom/Install/LinkisInstall/lib/linkis-engineconn-plugins目录下:
- 如果目录不是同一个目录则需要分开放置dist和plugin目录,如下示例:
/appcom/Install/LinkisInstall/lib/linkis-engineconn-plugins/dist:
hive
dist
spark
##plugin 目录
hive
plugin
spark
plugin
linkis_configuration_config_key: 插入引擎的配置参数的key和默认values
linkis_manager_label:插入引擎label如:hive-1.2.1
linkis_configuration_category: 插入引擎的目录关联关系
linkis_configuration_config_value: 插入引擎需要展示的配置
- 重启刷新:通过重启也可以强制刷新引擎目录