JDBC 引擎

    如果您希望在您的服务器上使用JDBC引擎,您需要准备JDBC连接信息,如MySQL数据库的连接地址、用户名和密码等

    注意: 编译jdbc引擎之前需要进行linkis项目全量编译
    发布的安装部署包中默认不包含此引擎插件, 你可以按此指引部署安装 https://linkis.apache.org/zh-CN/blog/2022/04/15/how-to-download-engineconn-plugin ,或者按以下流程,手动编译部署

    单独编译jdbc引擎

    2.2 物料的部署和加载

    将 2.1 步编译出来的引擎包,位于

    上传到服务器的引擎目录下

    并重启linkis-engineplugin(或则通过引擎接口进行刷新)

    1. cd ${LINKIS_HOME}/sbin
    2. sh linkis-daemon.sh restart cg-engineplugin

    EngineConnPlugin引擎插件安装

    准备操作

    您需要配置JDBC的连接信息,包括连接地址信息和用户名以及密码。

    图3-1 JDBC配置信息

    您也可以再提交任务接口中的params.configuration.runtime进行修改即可

    您也可以在提交任务接口,通过参数进行配置

    1. http 请求参数示例
    2. {
    3. "executionContent": {"code": "show databases;", "runType": "jdbc"},
    4. "params": {
    5. "configuration": {
    6. "runtime": {
    7. "jdbc.username":"test",
    8. "jdbc.password":"test23"
    9. }
    10. },
    11. "source": {"scriptPath": "file:///mnt/bdp/hadoop/1.sql"},
    12. "labels": {
    13. "engineType": "jdbc-4",
    14. "userCreator": "hadoop-IDE"
    15. }

    3.2 通过Linkis-cli进行任务提交

    Linkis 1.0后提供了cli的方式提交任务,我们只需要指定对应的EngineConn和CodeType标签类型即可,JDBC的使用如下:

    1. sh ./bin/linkis-cli -engineType jdbc-4 -codeType jdbc -code "show tables" -submitUser hadoop -proxyUser hadoop

    具体使用可以参考: .

    Scriptis的使用方式是最简单的,您可以直接进入Scriptis,右键目录然后新建JDBC脚本并编写JDBC代码并点击执行。

    JDBC的执行原理是通过加载JDBC的Driver然后提交sql到SQL的server去执行并获取到结果集并返回。

    JDBC 引擎 - 图2

    图3-2 JDBC的执行效果截图