参数列表
1.1 全局配置参数
1.2 LDAP配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.ldap.proxy.url | 无 | LDAP URL地址 |
wds.linkis.ldap.proxy.baseDN | 无 | LDAP baseDN地址 |
wds.linkis.ldap.proxy.userNameFormat | 无 |
1.3 Hadoop配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.hadoop.root.user | hadoop | HDFS super 用户 |
wds.linkis.filesystem.hdfs.root.path | 无 | 用户的HDFS默认根路径 |
wds.linkis.keytab.enable | false | 是否打开kerberos |
wds.linkis.keytab.file | /appcom/keytab | kerberos的keytab路径,仅wds.linkis.keytab.enable=true时生效 |
wds.linkis.keytab.host.enabled | false | |
wds.linkis.keytab.host | 127.0.0.1 | |
hadoop.config.dir | 无 | 如果不配置,将从环境变量 HADOOP_CONF_DIR读取 |
wds.linkis.hadoop.external.conf.dir.prefix | /appcom/config/external-conf/hadoop | hadoop额外配置 |
1.4 Linkis RPC配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.rpc.broadcast.thread.num | 10 | Linkis RPC 广播线程数量(建议采用默认值) |
wds.linkis.ms.rpc.sync.timeout | 60000 | Linkis RPC Receiver端的默认处理超时时间 |
wds.linkis.rpc.eureka.client.refresh.interval | 1s | Eureka client的微服务列表刷新间隔(建议采用默认值) |
wds.linkis.rpc.eureka.client.refresh.wait.time.max | 1m | 刷新最大等待时间(建议采用默认值) |
wds.linkis.rpc.receiver.asyn.consumer.thread.max | 10 | Receiver Consumer最大线程数量(如果在线用户多,建议适当调大该参数) |
wds.linkis.rpc.receiver.asyn.consumer.freeTime.max | 2m | Receiver Consumer最大空闲时间 |
wds.linkis.rpc.receiver.asyn.queue.size.max | 1000 | Receiver 消费队列最大缓存数(如果在线用户多,建议适当调大该参数) |
wds.linkis.rpc.sender.asyn.consumer.thread.max”, 5 | Sender Consumer最大线程数量 | |
wds.linkis.rpc.sender.asyn.consumer.freeTime.max | 2m | Sender Consumer最大空闲时间 |
wds.linkis.rpc.sender.asyn.queue.size.max | 300 | Sender 消费队列最大缓存数 |
2.1 Entrance配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.spark.engine.version | 2.4.3 | 当用户提交脚本没有指定版本时,采用的默认Spark版本 |
wds.linkis.hive.engine.version | 1.2.1 | 当用户提交脚本没有指定版本时,采用的默认Hive版本 |
wds.linkis.python.engine.version | python2 | 当用户提交脚本没有指定版本时,采用的默认Python版本 |
wds.linkis.jdbc.engine.version | 4 | 当用户提交脚本没有指定版本时,采用的默认JDBC版本 |
wds.linkis.shell.engine.version | 1 | 当用户提交脚本没有指定版本时,采用的默认Shell版本 |
wds.linkis.appconn.engine.version | v1 | 当用户提交脚本没有指定版本时,采用的默认AppConn版本 |
wds.linkis.entrance.scheduler.maxParallelismUsers | 1000 | Entrance支持的最大并发用户数 |
wds.linkis.entrance.job.persist.wait.max | 5m | Entrance等待JobHistory持久化Job的最大时间 |
wds.linkis.entrance.config.log.path | 无 | 如果不配置,默认采用wds.linkis.filesystem.hdfs.root.path的值 |
wds.linkis.default.requestApplication.name | IDE | 不指定提交系统时的默认提交系统 |
wds.linkis.default.runType | sql | 不指定脚本类型时的默认脚本类型 |
wds.linkis.warn.log.exclude | org.apache,hive.ql,hive.metastore,com.netflix,org.apache | 默认不向Client端输出的实时WARN级别日志 |
wds.linkis.log.exclude | org.apache,hive.ql,hive.metastore,com.netflix,org.apache,com.webank | 默认不向Client端输出的实时INFO级别日志 |
wds.linkis.instance | 3 | 用户每个引擎的默认并发Job数 |
wds.linkis.max.ask.executor.time | 5m | 向LinkisManager申请可用EngineConn的最大时间 |
wds.linkis.hive.special.log.include | org.apache.hadoop.hive.ql.exec.Task | 向Client端推送Hive日志时,默认不过滤哪些日志 |
wds.linkis.spark.special.log.include | org.apache.linkis.engine.spark.utils.JobProgressUtil | 向Client端推送Spark日志时,默认不过滤哪些日志 |
wds.linkis.entrance.shell.danger.check.enabled | false | 是否检查并拦截Shell危险语法 |
wds.linkis.shell.danger.usage | rm,sh,find,kill,python,for,source,hdfs,hadoop,spark-sql,spark-submit,pyspark,spark-shell,hive,yarn | Shell默认的危险语法 |
wds.linkis.shell.white.usage | cd,ls | Shell白名单语法 |
wds.linkis.sql.default.limit | 5000 | SQL默认的最大返回结果集行数 |
2.2 EngineConn配置参数
2.3 EngineConnManager的配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.ecm.memory.max | 80g | ECM的最大可启动EngineConn的内存 |
wds.linkis.ecm.cores.max | 50 | ECM的最大可启动EngineConn的CPU个数 |
wds.linkis.ecm.engineconn.instances.max | 50 | 最大可启动EngineConn个数,一般建议设置与wds.linkis.ecm.cores.max相同 |
wds.linkis.ecm.protected.memory | 4g | ECM的保护内存,即ECM用于启动EngineConn的内存不能超过 wds.linkis.ecm.memory.max - wds.linkis.ecm.protected.memory |
wds.linkis.ecm.protected.cores.max | 2 | ECM的保护CPU个数,意义与wds.linkis.ecm.protected.memory相同 |
wds.linkis.ecm.protected.engine.instances | 2 | ECM的保护实例数 |
wds.linkis.engineconn.wait.callback.pid | 3s | 等待EngineConn回传pid的等待时间 |
2.4 LinkisManager的配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.manager.am.engine.start.max.time” | 10m | LinkisManager启动一个新EngineConn的最大启动时间 |
wds.linkis.manager.am.engine.reuse.max.time | 5m | LinkisManager复用一个已有的EngineConn的最大选择时间 |
wds.linkis.manager.am.engine.reuse.count.limit | 10 | LinkisManager复用一个已有的EngineConn的最大轮询次数 |
wds.linkis.multi.user.engine.types | jdbc,es,presto | LinkisManager在复用一个已有的EngineConn时,哪些引擎的用户不作为复用规则使用 |
wds.linkis.rm.instance | 10 | 每个用户在每个引擎的默认最大实例数 |
wds.linkis.rm.yarnqueue.cores.max | 150 | 每个用户在每个引擎的使用队列最大核数 |
wds.linkis.rm.yarnqueue.memory.max | 450g | 每个用户在每个引擎的使用队列的最大内存数 |
wds.linkis.rm.yarnqueue.instance.max | 30 | 每个用户在每个引擎的队列中最多启动的应用数 |
3.1 JDBC引擎配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.jdbc.default.limit | 5000 | 默认的最大返回结果集行数 |
wds.linkis.jdbc.support.dbs | mysql=>com.mysql.jdbc.Driver,postgresql=>org.postgresql.Driver,oracle=>oracle.jdbc.driver.OracleDriver,hive2=>org.apache.hive.jdbc.HiveDriver,presto=>com.facebook.presto.jdbc.PrestoDriver | JDBC引擎支持的驱动 |
wds.linkis.engineconn.jdbc.concurrent.limit | 100 | 最大并行SQL执行数 |
3.2 Python引擎配置参数
参数名 | 默认值 | 描述 |
---|---|---|
pythonVersion | /appcom/Install/anaconda3/bin/python | Python命令路径 |
python.path | 无 | 指定Python额外的path,该路径只接受共享存储的路径 |
3.3 Spark引擎配置参数
4.1 BML配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.bml.dws.version | v1 | Linkis Restful请求的版本号 |
wds.linkis.bml.auth.token.key | Validation-Code | BML请求的免密token-key |
wds.linkis.bml.auth.token.value | BML-AUTH | BML请求的免密token-value |
wds.linkis.bml.hdfs.prefix | /tmp/linkis | BML文件存储在hdfs上的前缀文件路径 |
4.2 Metadata配置参数
参数名 | 默认值 | 描述 |
---|---|---|
hadoop.config.dir | /appcom/config/hadoop-config | 如果不存在,则默认采用环境变量HADOOP_CONF_DIR的值 |
hive.config.dir | /appcom/config/hive-config | 如果不存在,则默认采用环境变量HIVE_CONF_DIR的值 |
hive.meta.url | 无 | HiveMetaStore数据库的URL。如果没有配置hive.config.dir,则该值必须配置 |
hive.meta.user | 无 | HiveMetaStore数据库的user |
hive.meta.password | 无 | HiveMetaStore数据库的password |
4.3 JobHistory配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.jobhistory.admin | 无 | 默认的Admin账号,用于指定哪些用户可以查看所有人的执行历史 |
4.4 FileSystem配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.filesystem.root.path | file:///tmp/linkis/ | 用户的Linux本地根目录 |
wds.linkis.filesystem.hdfs.root.path | hdfs:///tmp/ | 用户的HDFS根目录 |
wds.linkis.workspace.filesystem.hdfsuserrootpath.suffix | /linkis/ | 用户的HDFS根目录后的一级前缀,用户实际根目录为:${hdfs.root.path}\${user}\${hdfsuserrootpath.suffix} |
wds.linkis.workspace.resultset.download.is.limit | true | Client下载结果集时,是否限制下载条数 |
wds.linkis.workspace.resultset.download.maxsize.csv | 5000 | 当结果集下载为CSV文件时,限制的下载条数 |
wds.linkis.workspace.resultset.download.maxsize.excel | 5000 | 当结果集下载为Excel文件时,限制的下载条数 |
wds.linkis.workspace.filesystem.get.timeout | 2000L | 请求底层文件系统的最大超时时间。(如果您的HDFS或Linux机器性能较低,建议适当调大该查数) |
4.5 UDF配置参数
5.1 Gateway配置参数
参数名 | 默认值 | 描述 |
---|---|---|
wds.linkis.gateway.conf.enable.proxy.user | false | 是否开启代理用户模式,如果开启,则登录用户的请求都会代理到代理用户去执行 |
wds.linkis.gateway.conf.proxy.user.config | proxy.properties | 代理规则的存储文件 |
wds.linkis.gateway.conf.proxy.user.scan.interval | 600000 | 代理文件的刷新间隔 |
wds.linkis.gateway.conf.enable.token.auth | false | 是否开启Token登录模式,如果开启,则允许以token的方式访问Linkis |
wds.linkis.gateway.conf.token.auth.config | token.properties | Token规则的存储文件 |
wds.linkis.gateway.conf.token.auth.scan.interval | 600000 | Token文件的刷新间隔 |
wds.linkis.gateway.conf.url.pass.auth | /dws/ | 默认放行、不作登录校验的请求 |
wds.linkis.gateway.conf.enable.sso | false | 是否开启SSO用户登录模式 |
wds.linkis.gateway.conf.sso.interceptor | 无 | 如果开启了SSO登录模式,则需要用户实现SSOInterceptor,用于跳转SSO登录页面 |
wds.linkis.admin.user | hadoop | 管理员用户列表 |
wds.linkis.login_encrypt.enable | false | 用户登录时,密码是否开启RSA加密传输 |
wds.linkis.enable.gateway.auth | false | 是否开启Gateway IP白名单机制 |
wds.linkis.gateway.auth.file | auth.txt | IP白名单存储文件 |