PD Control 使用说明

    可直接通过 tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> [-i] 使用。

    下载安装包

    如需下载最新版本的 pd-ctl,直接下载 TiDB 安装包即可。pd-ctl 位于 TiDB 安装包的 ctl-{version}-linux-amd64.tar.gz 包中。

    源码编译

    1. Go Version 1.13 以上
    2. 在 PD 项目根目录使用 make 或者 make pd-ctl 命令进行编译,生成 bin/pd-ctl

    单命令模式:

    交互模式:

    1. tiup ctl pd -i -u http://127.0.0.1:2379

    使用环境变量:

    1. export PD_ADDR=http://127.0.0.1:2379 &&
    2. tiup ctl pd

    使用 TLS 加密:

    1. tiup ctl pd -u https://127.0.0.1:2379 --cacert="path/to/ca" --cert="path/to/cert" --key="path/to/key"

    --cacert

    • 指定 PEM 格式的受信任 CA 证书的文件路径
    • 默认值:””

    --cert

    • 指定 PEM 格式的 SSL 证书的文件路径
    • 默认值:””

    --detach / -d

    • 使用单命令行模式(不进入 readline)
    • 默认值:true

    --help / -h

    • 输出帮助信息
    • 默认值:false

    --interact/-i

    • 使用交互模式(进入 readline)
    • 默认值:false

    --key

    • 指定 PEM 格式的 SSL 证书密钥文件路径,即 --cert 所指定的证书的私钥
    • 默认值:””

    --pd/-u

    • 指定 PD 的地址
    • 默认地址:http://127.0.0.1:2379
    • 环境变量:PD_ADDR

    --version/-V

    • 打印版本信息并退出
    • 默认值:false

    cluster

    用于显示集群基本信息。

    示例:

    1. >> cluster
    1. {
    2. "id": 6493707687106161130,
    3. "max_peer_count": 3
    4. }

    config [show | set <option> <value> | placement-rules]

    用于显示或调整配置信息。示例如下。

    显示 scheduling 的相关 config 信息:

    1. >> config show
    1. {
    2. "replication": {
    3. "enable-placement-rules": "true",
    4. "isolation-level": "",
    5. "location-labels": "",
    6. "max-replicas": 3,
    7. "strictly-match-label": "false"
    8. },
    9. "schedule": {
    10. "enable-cross-table-merge": "true",
    11. "high-space-ratio": 0.7,
    12. "hot-region-cache-hits-threshold": 3,
    13. "hot-region-schedule-limit": 4,
    14. "leader-schedule-limit": 4,
    15. "leader-schedule-policy": "count",
    16. "low-space-ratio": 0.8,
    17. "max-merge-region-keys": 200000,
    18. "max-merge-region-size": 20,
    19. "max-pending-peer-count": 64,
    20. "max-snapshot-count": 64,
    21. "max-store-down-time": "30m0s",
    22. "merge-schedule-limit": 8,
    23. "patrol-region-interval": "10ms",
    24. "region-schedule-limit": 2048,
    25. "region-score-formula-version": "v2",
    26. "replica-schedule-limit": 64,
    27. "scheduler-max-waiting-operator": 5,
    28. "split-merge-interval": "1h0m0s",
    29. "tolerant-size-ratio": 0
    30. }
    31. }

    显示所有的 config 信息:

    1. >> config show all

    显示 replication 的相关 config 信息:

    1. >> config show replication
    1. {
    2. "max-replicas": 3,
    3. "isolation-level": "",
    4. "location-labels": "",
    5. "strictly-match-label": "false",
    6. "enable-placement-rules": "true"
    7. }

    显示目前集群版本,是目前集群 TiKV 节点的最低版本,并不对应 binary 的版本:

    1. >> config show cluster-version
    1. "5.2.2"
    • max-snapshot-count 控制单个 store 最多同时接收或发送的 snapshot 数量,调度受制于这个配置来防止抢占正常业务的资源。当需要加快补副本或 balance 速度时可以调大这个值。

      设置最大 snapshot 为 64:

      1. >> config set max-snapshot-count 64
    • max-pending-peer-count 控制单个 store 的 pending peer 上限,调度受制于这个配置来防止在部分节点产生大量日志落后的 Region。需要加快补副本或 balance 速度可以适当调大这个值,设置为 0 则表示不限制。

      设置最大 pending peer 数量为 64:

      1. >> config set max-pending-peer-count 64
    • max-merge-region-size 控制 Region Merge 的 size 上限(单位是 M)。当 Region Size 大于指定值时 PD 不会将其与相邻的 Region 合并。设置为 0 表示不开启 Region Merge 功能。

      设置 Region Merge 的 size 上限为 16 M:

      1. >> config set max-merge-region-size 16
    • max-merge-region-keys 控制 Region Merge 的 keyCount 上限。当 Region KeyCount 大于指定值时 PD 不会将其与相邻的 Region 合并。

      设置 Region Merge 的 keyCount 上限为 50000:

      1. >> config set max-merge-region-keys 50000
    • split-merge-interval 控制对同一个 Region 做 splitmerge 操作的间隔,即对于新 split 的 Region 一段时间内不会被 merge

      设置 splitmerge 的间隔为 1 天:

      1. >> config set split-merge-interval 24h
    • enable-one-way-merge 用于控制是否只允许和相邻的后一个 Region 进行合并。当设置为 false 时,PD 允许与相邻的前后 Region 进行合并。

      设置只允许和相邻的后一个 Region 合并:

      1. >> config set enable-one-way-merge true
    • enable-cross-table-merge 用于开启跨表 Region 的合并。当设置为 false 时,PD 不会合并不同表的 Region。该选项只在键类型为 “table” 时生效。

      设置允许跨表合并:

      1. >> config set enable-cross-table-merge true
    • key-type 用于指定集群的键编码类型。支持的类型有 ["table", "raw", "txn"],默认值为 “table”。

      • 如果集群中不存在 TiDB 实例,key-type 的值为 “raw” 或 “txn”。此时,无论 enable-cross-table-merge 设置为何,PD 均可以跨表合并 Region。
      • 如果集群中存在 TiDB 实例,key-type 的值应当为 “table”。此时,enable-cross-table-merge 的设置决定了 PD 是否能跨表合并 Region。如果 key-type 的值为 “raw”,placement rules 不生效。

        启用跨表合并:

        1. >> config set key-type raw
    • region-score-formula-version 用于设置 Region 算分公式的版本,支持的值有 ["v1", "v2"]。v2 版本公式有助于减少上下线等场景下冗余的 balance Region 调度。

      开启 v2 版本 Region 算分公式:

      1. >> config set region-score-formula-version v2
    • patrol-region-interval 控制 replicaChecker 检查 Region 健康状态的运行频率,越短则运行越快,通常状况不需要调整。

      设置 replicaChecker 的运行频率为 10 毫秒:

      1. >> config set patrol-region-interval 10ms
    • max-store-down-time 为 PD 认为失联 store 无法恢复的时间,当超过指定的时间没有收到 store 的心跳后,PD 会在其他节点补充副本。

      设置 store 心跳丢失 30 分钟开始补副本:

      1. >> config set max-store-down-time 30m
    • 通过调整 leader-schedule-limit 可以控制同时进行 leader 调度的任务个数。这个值主要影响 leader balance 的速度,值越大调度得越快,设置为 0 则关闭调度。Leader 调度的开销较小,需要的时候可以适当调大。

      最多同时进行 4 个 leader 调度:

      1. >> config set leader-schedule-limit 4
    • 通过调整 region-schedule-limit 可以控制同时进行 Region 调度的任务个数。这个值可以避免创建过多的 Region balance operator。默认值为 2048,对所有大小的集群都足够。设置为 0 则关闭调度。Region 调度的速度通常受到 store-limit 的限制,但除非你熟悉该设置,否则不推荐自定义该参数。

      最多同时进行 2 个 Region 调度:

      1. >> config set region-schedule-limit 2
    • 通过调整 replica-schedule-limit 可以控制同时进行 replica 调度的任务个数。这个值主要影响节点挂掉或者下线的时候进行调度的速度,值越大调度得越快,设置为 0 则关闭调度。Replica 调度的开销较大,所以这个值不宜调得太大。

      最多同时进行 4 个 replica 调度:

      1. >> config set replica-schedule-limit 4
    • merge-schedule-limit 控制同时进行的 Region Merge 调度的任务,设置为 0 则关闭 Region Merge。Merge 调度的开销较大,所以这个值不宜调得过大。

      最多同时进行 16 个 merge 调度:

      1. >> config set merge-schedule-limit 16
    • hot-region-schedule-limit 控制同时进行的 Hot Region 调度的任务,设置为 0 则关闭调度。这个值不宜调得过大,否则可能对系统性能造成影响。

      最多同时进行 4 个 Hot Region 调度:

      1. >> config set hot-region-schedule-limit 4
    • hot-region-cache-hits-threshold 用于设置识别热点 Region 所需的分钟数,只有 Region 处于热点状态持续时间超过该分钟数后,才能参与热点调度。

    • tolerant-size-ratio 控制 balance 缓冲区大小。当两个 store 的 leader 或 Region 的得分差距小于指定倍数的 Region size 时,PD 会认为此时 balance 达到均衡状态。

      设置缓冲区为约 20 倍平均 RegionSize:

      1. >> config set tolerant-size-ratio 20
    • low-space-ratio 用于设置 store 空间不足的阈值。当节点的空间占用比例超过指定值时,PD 会尽可能避免往对应节点迁移数据,同时主要针对剩余空间大小进行调度,避免对应节点磁盘空间被耗尽。

      1. config set low-space-ratio 0.9
    • high-space-ratio 用于设置 store 空间充裕的阈值,此配置仅的在 region-score-formula-version = v1 时生效。当节点的空间占用比例小于指定值时,PD 调度时会忽略剩余空间这个指标,主要针对实际数据量进行均衡。

      设置空间充裕阈值为 0.5:

      1. config set high-space-ratio 0.5
    • cluster-version 集群的版本,用于控制某些 Feature 是否开启,处理兼容性问题。通常是集群正常运行的所有 TiKV 节点中的最低版本,需要回滚到更低的版本时才进行手动设置。

      设置 cluster version 为 1.0.8:

      1. config set cluster-version 1.0.8
    • leader-schedule-policy 用于选择 Leader 的调度策略,可以选择按照 size 或者 count 来进行调度。

    • scheduler-max-waiting-operator 用于控制每个调度器同时存在的 operator 的个数。

    • enable-remove-down-replica 用于开启自动删除 DownReplica 的特性。当设置为 false 时,PD 不会自动清理宕机状态的副本。

    • enable-replace-offline-replica 用于开启迁移 OfflineReplica 的特性。当设置为 false 时,PD 不会迁移下线状态的副本。

    • enable-make-up-replica 用于开启补充副本的特性。当设置为 false 时,PD 不会为副本数不足的 Region 补充副本。

    • enable-remove-extra-replica 用于开启删除多余副本的特性。当设置为 false 时,PD 不会为副本数过多的 Region 删除多余副本。

    • enable-location-replacement 用于开启隔离级别检查。当设置为 false 时,PD 不会通过调度来提升 Region 副本的隔离级别。

    • enable-debug-metrics 用于开启 debug 的 metrics。当设置为 true 时,PD 会开启一些 metrics,比如 balance-tolerant-size 等。

    • enable-placement-rules 用于开启 placement rules,在 v5.0 及以上的版本默认开启。

    • store-limit-mode 用于控制 store 限速机制的模式。主要有两种模式:automanualauto 模式下会根据 load 自动进行平衡调整(实验性功能)。

    config placement-rules [disable | enable | load | save | show | rule-group]

    关于 config placement-rules 的具体用法,参考 。

    health

    用于显示集群健康信息。示例如下。

    显示健康信息:

    1. >> health
    1. {
    2. "name": "pd",
    3. "member_id": 13195394291058371180,
    4. "client_urls": [
    5. "http://127.0.0.1:2379"
    6. ......
    7. ],
    8. "health": true
    9. }
    10. ......
    11. ]

    用于显示集群热点信息。示例如下。

    显示读热点信息:

    1. >> hot read

    显示写热点信息:

    1. >> hot write

    显示所有 store 的读写信息:

    1. >> hot store

    显示历史读写热点信息:

    1. >> hot history startTime endTime [ <name> <value> ]

    例如查询时间 16292940000001631980800000 (毫秒)之间的历史热点 Region 信息:

    1. >> hot history 1629294000000 1631980800000
    1. {
    2. "history_hot_region": [
    3. {
    4. "update_time": 1630864801948,
    5. "region_id": 103,
    6. "peer_id": 1369002,
    7. "store_id": 3,
    8. "is_leader": true,
    9. "is_learner": false,
    10. "hot_region_type": "read",
    11. "hot_degree": 152,
    12. "flow_bytes": 0,
    13. "key_rate": 0,
    14. "query_rate": 305,
    15. "start_key": "7480000000000000FF5300000000000000F8",
    16. "end_key": "7480000000000000FF5600000000000000F8"
    17. },
    18. ...
    19. ]
    20. }

    对于参数的值为数组的请用 x, y, ... 的形式进行参数值的设置,所有支持的参数如下所示:

    1. >> hot history 1629294000000 1631980800000 hot_region_type read region_id 1,2,3 store_id 1,2,3 peer_id 1,2,3 is_leader true is_learner true
    1. {
    2. "history_hot_region": [
    3. {
    4. "update_time": 1630864801948,
    5. "region_id": 103,
    6. "peer_id": 1369002,
    7. "store_id": 3,
    8. "is_leader": true,
    9. "is_learner": false,
    10. "hot_region_type": "read",
    11. "hot_degree": 152,
    12. "flow_bytes": 0,
    13. "key_rate": 0,
    14. "query_rate": 305,
    15. "start_key": "7480000000000000FF5300000000000000F8",
    16. "end_key": "7480000000000000FF5600000000000000F8"
    17. },
    18. ...
    19. ]
    20. }

    label [store <name> <value>]

    用于显示集群标签信息。示例如下。

    显示所有 label:

    1. >> label

    显示所有包含 label 为 “zone”:”cn” 的 store:

    1. >> label store zone cn

    member [delete | leader_priority | leader [show | resign | transfer <member_name>]]

    用于显示 PD 成员信息,删除指定成员,设置成员的 leader 优先级。示例如下。

    显示所有成员的信息:

    1. >> member
    1. {
    2. "header": {......},
    3. "members": [......],
    4. "leader": {......},
    5. "etcd_leader": {......},
    6. }

    下线 “pd2”:

    1. >> member delete name pd2

    使用 id 下线节点:

    1. >> member delete id 1319539429105371180
    1. Success!

    显示 leader 的信息:

    1. >> member leader show
    1. {
    2. "name": "pd",
    3. "member_id": 13155432540099656863,
    4. "peer_urls": [......],
    5. "client_urls": [......]
    6. }

    将 leader 从当前成员移走:

    1. >> member leader resign
    1. ......

    将 leader 迁移至指定成员:

    1. >> member leader transfer pd3
    1. ......

    operator [check | show | add | remove]

    用于显示和控制调度操作。

    示例:

    1. >> operator show // 显示所有的 operators
    2. >> operator show admin // 显示所有的 admin operators
    3. >> operator show leader // 显示所有的 leader operators
    4. >> operator show region // 显示所有的 Region operators
    5. >> operator add add-peer 1 2 // store 2 上新增 Region 1 的一个副本
    6. >> operator add add-learner 1 2 // store 2 上新增 Region 1 的一个 learner 副本
    7. >> operator add remove-peer 1 2 // 移除 store 2 上的 Region 1 的一个副本
    8. >> operator add transfer-leader 1 2 // Region 1 leader 调度到 store 2
    9. >> operator add transfer-region 1 2 3 4 // Region 1 调度到 store 2,3,4
    10. >> operator add transfer-peer 1 2 3 // Region 1 store 2 上的副本调度到 store 3
    11. >> operator add merge-region 1 2 // Region 1 Region 2 合并
    12. >> operator add split-region 1 --policy=approximate // Region 1 对半拆分成两个 Region,基于粗略估计值
    13. >> operator add split-region 1 --policy=scan // Region 1 对半拆分成两个 Region,基于精确扫描值
    14. >> operator remove 1 // Region 1 的调度操作删掉
    15. >> operator check 1 // 查看 Region 1 相关 operator 的状态

    其中,Region 的分裂都是尽可能地从靠近中间的位置开始。对这个位置的选择支持两种策略,即 scan 和 approximate。它们之间的区别是,前者通过扫描这个 Region 的方式来确定中间的 key,而后者是通过查看 SST 文件中记录的统计信息,来得到近似的位置。一般来说,前者更加精确,而后者消耗更少的 I/O,可以更快地完成。

    ping

    用于显示ping PD 所需要花费的时间

    示例:

    1. >> ping
    1. time: 43.12698ms

    region <region_id> [--jq="<query string>"]

    用于显示 Region 信息。使用 jq 格式化输出请参考 。示例如下。

    显示所有 Region 信息:

    1. >> region
    1. {
    2. "count": 1,
    3. "regions": [......]
    4. }

    显示 Region id 为 2 的信息:

    1. >> region 2
    1. {
    2. "id": 2,
    3. "start_key": "7480000000000000FF1D00000000000000F8",
    4. "end_key": "7480000000000000FF1F00000000000000F8",
    5. "epoch": {
    6. "conf_ver": 1,
    7. "version": 15
    8. },
    9. "peers": [
    10. {
    11. "id": 40,
    12. "store_id": 3
    13. }
    14. ],
    15. "leader": {
    16. "id": 40,
    17. "store_id": 3
    18. },
    19. "written_bytes": 0,
    20. "read_bytes": 0,
    21. "written_keys": 0,
    22. "read_keys": 0,
    23. "approximate_size": 1,
    24. "approximate_keys": 0
    25. }

    region key [--format=raw|encode|hex] <key>

    用于查询某个 key 位于哪一个 Region 上,支持 raw、encoding 和 hex 格式。使用 encoding 格式时,key 需要使用单引号。

    Hex 格式(默认)示例:

    1. >> region key 7480000000000000FF1300000000000000F8
    2. {
    3. "region": {
    4. "id": 2,
    5. ......
    6. }
    7. }

    Raw 格式示例:

    1. >> region key --format=raw abc
    1. {
    2. "region": {
    3. "id": 2,
    4. ......
    5. }
    6. }

    Encoding 格式示例:

    1. >> region key --format=encode 't\200\000\000\000\000\000\000\377\035_r\200\000\000\000\000\377\017U\320\000\000\000\000\000\372'
    1. {
    2. "region": {
    3. "id": 2,
    4. ......
    5. }
    6. }

    region scan

    用于获取所有 Region。

    示例:

    1. >> region scan
    1. {
    2. "count": 20,
    3. "regions": [......],
    4. }

    region sibling <region_id>

    用于查询某个 Region 相邻的 Region。

    示例:

    1. >> region sibling 2
    1. {
    2. "count": 2,
    3. "regions": [......],
    4. }

    region keys [--format=raw|encode|hex] <start_key> <end_key> <limit>

    用于查询某个 key 范围内的所有 Region。支持不带 endKey 的范围。limit 的默认值是 16,设为 -1 则表示无数量限制。示例如下:

    显示从 a 开始的所有 Region 信息,数量上限为 16:

    1. >> region keys --format=raw a
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }
    1. >> region keys --format=raw a z
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }

    显示 [a, z) 范围内的所有 Region 信息,无数量上限:

    1. >> region keys --format=raw a z -1
    1. {
    2. "count": ...,
    3. "regions": [......],

    显示从 a 开始的所有 Region 信息,数量上限为 20:

    1. >> region keys --format=raw a "" 20
    1. {
    2. "count": 20,
    3. "regions": [......],
    4. }

    region store <store_id>

    用于查询某个 store 上面所有的 Region。

    示例:

    1. >> region store 2
    1. {
    2. "count": 10,
    3. "regions": [......],
    4. }

    region topread [limit]

    用于查询读流量最大的 Region。limit 的默认值是 16。

    示例:

    1. >> region topread
    1. "count": 16,
    2. "regions": [......],
    3. }

    region topwrite [limit]

    用于查询写流量最大的 Region。limit 的默认值是 16。

    示例:

    1. >> region topwrite
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }

    region topconfver [limit]

    用于查询 conf version 最大的 Region。limit 的默认值是 16。

    示例:

    1. >> region topconfver
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }

    region topversion [limit]

    用于查询 version 最大的 Region。limit 的默认值是 16。

    示例:

    1. >> region topversion
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }

    用于查询 approximate size 最大的 Region。limit 的默认值是 16。

    示例:

    1. >> region topsize
    1. {
    2. "count": 16,
    3. "regions": [......],
    4. }

    region check [miss-peer | extra-peer | down-peer | pending-peer | offline-peer | empty-region | hist-size | hist-keys]

    用于查询处于异常状态的 Region,各类型的意义如下

    • miss-peer:缺副本的 Region
    • extra-peer:多副本的 Region
    • down-peer:有副本状态为 Down 的 Region
    • pending-peer:有副本状态为 Pending 的 Region

    示例:

    1. >> region check miss-peer
    1. {
    2. "count": 2,
    3. "regions": [......],
    4. }

    scheduler [show | add | remove | pause | resume | config]

    用于显示和控制调度策略。

    示例:

    1. >> scheduler show // 显示所有已经创建的 schedulers
    2. >> scheduler add grant-leader-scheduler 1 // store 1 上的所有 Region leader 调度到 store 1
    3. >> scheduler add evict-leader-scheduler 1 // store 1 上的所有 Region leader store 1 调度出去
    4. >> scheduler config evict-leader-scheduler // v4.0.0 起,展示该调度器具体在哪些 store
    5. >> scheduler add shuffle-leader-scheduler // 随机交换不同 store 上的 leader
    6. >> scheduler add shuffle-region-scheduler // 随机调度不同 store 上的 Region
    7. >> scheduler add evict-slow-store-scheduler // 当有且仅有一个 slow store 时将该 store 上的所有 Region leader 驱逐出去
    8. >> scheduler remove grant-leader-scheduler-1 // 把对应的调度器删掉,`-1` 对应 store ID
    9. >> scheduler pause balance-region-scheduler 10 // 暂停运行 balance-region 调度器 10
    10. >> scheduler pause all 10 // 暂停运行所有的调度器 10
    11. >> scheduler resume balance-region-scheduler // 继续运行 balance-region 调度器
    12. >> scheduler resume all // 继续运行所有的调度器
    13. >> scheduler config balance-hot-region-scheduler // 显示 balance-hot-region 调度器的配置

    scheduler config balance-leader-scheduler

    用于查看和控制 balance-leader-scheduler 策略。

    从 TiDB v6.0.0 起,PD 为 balance-leader-scheduler 引入了 Batch 参数,用于控制 balance-leader 执行任务的速度。你可以通过 pd-ctl 修改 balance-leader batch 配置项设置该功能。

    在 v6.0.0 前,PD 不带有该配置(即 balance-leader batch=1)。在 v6.0.0 或更高版本中,balance-leader batch 的默认值为 4。如果你想为该配置项设置大于 4 的值,你需要同时调大 (默认值 5)。同时调大两个配置项后,你才能体验预期的加速效果。

    1. >> scheduler config balance-leader-scheduler set batch 3 // balance-leader 调度器可以批量执行的算子大小设置为 3

    scheduler config balance-hot-region-scheduler

    用于查看和控制 balance-hot-region-scheduler 策略。

    示例:

    • min-hot-byte-rate 指计数的最小字节数,通常为 100。

      1. >> scheduler config balance-hot-region-scheduler set min-hot-byte-rate 100
    • min-hot-key-rate 指计数的最小 key 数,通常为 10。

      1. >> scheduler config balance-hot-region-scheduler set min-hot-key-rate 10
    • min-hot-query-rate 指计数的最小 query 数,通常为 10。

      1. >> scheduler config balance-hot-region-scheduler set min-hot-query-rate 10
    • max-zombie-rounds 指一个 operator 可被纳入 pending influence 所允许的最大心跳次数。如果将它设置为更大的值,更多的 operator 可能会被纳入 pending influence。通常用户不需要修改这个值。pending influence 指的是在调度中产生的、但仍生效的影响。

      1. >> scheduler config balance-hot-region-scheduler set max-zombie-rounds 3
    • max-peer-number 指最多要被解决的 peer 数量。这个配置可避免调度器处理速度过慢。

      1. >> scheduler config balance-hot-region-scheduler set max-peer-number 1000
    • byte-rate-rank-step-ratiokey-rate-rank-step-ratioquery-rate-rank-step-ratiocount-rank-step-ratio 分别控制 byte、key、query 和 count 的 step ranks。rank-step-ratio 决定了计算 rank 时的 step 值。great-dec-ratiominor-dec-ratio 控制 dec 的 rank。通常用户不需要修改这些配置项。

      1. >> scheduler config balance-hot-region-scheduler set byte-rate-rank-step-ratio 0.05
    • src-tolerance-ratiodst-tolerance-ratio 是期望调度器的配置项。tolerance-ratio 的值越小,调度就越容易。当出现冗余调度时,你可以适当调大这个值。

      1. >> scheduler config balance-hot-region-scheduler set src-tolerance-ratio 1.1
    • read-prioritieswrite-leader-prioritieswrite-peer-priorities 用于控制调度器优先从哪些维度进行热点均衡,支持配置两个维度。

      • read-prioritieswrite-leader-priorities 用于控制调度器在处理 read 和 write-leader 类型的热点时优先均衡的维度,可选的维度有 querybytekey
      • write-peer-priorities 用于控制调度器在处理 write-peer 类型的热点时优先均衡的维度,支持配置 bytekey 维度。

        1. >> scheduler config balance-hot-region-scheduler set read-priorities query,byte
    • strict-picking-store 是控制热点调度搜索空间的开关,通常为打开。当打开时,热点调度的目标是保证所配置的两个维度的热点均衡。当关闭后,热点调度只保证处于第一优先级的维度的热点均衡表现更好,但可能会导致其他维度的热点不再那么均衡。通常用户不需要修改这个配置项。

      1. >> scheduler config balance-hot-region-scheduler set strict-picking-store true
    • enable-for-tiflash 是控制热点调度是否对 TiFlash 生效的开关。通常为打开,关闭后将不会产生 TiFlash 实例之间的热点调度。

      1. >> scheduler config balance-hot-region-scheduler set enable-for-tiflash true

    store [delete | label | weight | remove-tombstone | limit ] <store_id> [--jq="<query string>"]

    用于显示 store 信息或者删除指定 store。使用 jq 格式化输出请参考 jq 格式化 json 输出示例。示例如下。

    显示所有 store 信息:

    1. >> store
    1. {
    2. "count": 3,
    3. "stores": [...]
    4. }

    获取 store id 为 1 的 store:

    1. >> store 1
    1. ......

    下线 store id 为 1 的 store:

    1. >> store delete 1
    1. ......

    设置 store id 为 1 的 store 的键为 “zone” 的 label 的值为 “cn”:

    1. >> store label 1 zone cn

    设置 store id 为 1 的 store 的 leader weight 为 5,Region weight 为 10:

    1. >> store weight 1 5 10
    1. >> store remove-tombstone // 删除所有 tombstone 状态的 store
    2. >> store limit // 显示所有 store 添加和删除 peer 的速度上限
    3. >> store limit add-peer // 显示所有 store 添加 peer 的速度上限
    4. >> store limit remove-peer // 显示所有 store 删除 peer 的速度上限
    5. >> store limit all 5 // 设置所有 store 添加和删除 peer 的速度上限为每分钟 5
    6. >> store limit 1 5 // 设置 store 1 添加和删除 peer 的速度上限为每分钟 5
    7. >> store limit all 5 add-peer // 设置所有 store 添加 peer 的速度上限为每分钟 5
    8. >> store limit 1 5 add-peer // 设置 store 1 添加 peer 的速度上限为每分钟 5
    9. >> store limit 1 5 remove-peer // 设置 store 1 删除 peer 的速度上限为每分钟 5
    10. >> store limit all 5 remove-peer // 设置所有 store 删除 peer 的速度上限为每分钟 5

    log [fatal | error | warn | info | debug]

    用于设置 PD leader 的日志级别。

    1. >> log warn

    tso

    用于解析 TSO 到物理时间和逻辑时间。示例如下。

    解析 TSO:

    1. >> tso 395181938313123110
    1. system: 2017-10-09 05:50:59 +0800 CST
    2. logic: 120102

    unsafe remove-failed-stores [store-ids | show | history]

    用于在多数副本永久损坏造成数据不可用时进行有损恢复。示例如下。

    执行 Online Unsafe Recovery,移除永久损坏的节点 (Store):

    1. >> unsafe remove-failed-stores 101,102,103
    1. Success!

    显示正在运行的 Online Unsafe Recovery 的当前状态或历史状态。

    1. >> unsafe remove-failed-stores show
    1. [
    2. "Collecting cluster info from all alive stores, 10/12.",
    3. "Stores that have reports to PD: 1, 2, 3, ...",
    4. "Stores that have not reported to PD: 11, 12",
    5. ]
    1. >> unsafe remove-failed-stores history
    1. [
    2. "Store reports collection:",
    3. "Store 7: region 3 [start_key, end_key), {peer1, peer2, peer3} region 4 ...",
    4. "Store 8: region ...",
    5. "...",
    6. "Recovery Plan:",
    7. "Store 7, creates: region 11, region 12, ...; updates: region 21, region 22, ... deletes: ... ",
    8. "Store 8, ..."
    9. "...",
    10. "Execution Progress:",
    11. "Store 10 finished,",
    12. "Store 7 not yet finished",
    13. "...",
    14. ]

    简化 store 的输出

    1. >> store --jq=".stores[].store | { id, address, state_name}"
    1. {"id":1,"address":"127.0.0.1:20161","state_name":"Up"}
    2. {"id":30,"address":"127.0.0.1:20162","state_name":"Up"}
    3. ...

    查询节点剩余空间

    1. >> store --jq=".stores[] | {id: .store.id, available: .status.available}"
    1. {"id":1,"available":"10 GiB"}
    2. {"id":30,"available":"10 GiB"}
    3. ...

    查询状态不为 Up 的所有节点

    1. >> store --jq='.stores[].store | select(.state_name!="Up") | { id, address, state_name}'
    1. {"id":1,"address":"127.0.0.1:20161""state_name":"Offline"}
    2. {"id":5,"address":"127.0.0.1:20162""state_name":"Offline"}
    3. ...

    查询所有的 TiFlash 节点

    1. >> store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"engine","value":"tiflash"}])) | { id, address, state_name}'
    1. {"id":1,"address":"127.0.0.1:20161""state_name":"Up"}
    2. {"id":5,"address":"127.0.0.1:20162""state_name":"Up"}
    3. ...

    查询 Region 副本的分布情况

    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id]}"
    1. {"id":2,"peer_stores":[1,30,31]}
    2. {"id":4,"peer_stores":[1,31,34]}
    3. ...

    根据副本数过滤 Region

    例如副本数不为 3 的所有 Region:

    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length != 3)}"
    1. {"id":12,"peer_stores":[30,32]}
    2. {"id":2,"peer_stores":[1,30,31,32]}

    例如在 store30 上有副本的所有 Region:

    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==30))}"
    1. {"id":6,"peer_stores":[1,30,31]}
    2. {"id":22,"peer_stores":[1,30,32]}
    3. ...

    还可以像这样找出在 store30 或 store31 上有副本的所有 Region:

    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==(30,31)))}"
    1. {"id":16,"peer_stores":[1,30,34]}
    2. {"id":28,"peer_stores":[1,30,32]}
    3. {"id":12,"peer_stores":[30,32]}
    4. ...

    恢复数据时寻找相关 Region

    例如当 [store1, store30, store31] 宕机时不可用时,我们可以通过查找所有 Down 副本数量大于正常副本数量的所有 Region:

    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length as $total | map(if .==(1,30,31) then . else empty end) | length>=$total-length) }"
    1. {"id":2,"peer_stores":[1,30,31,32]}
    2. {"id":12,"peer_stores":[30,32]}
    3. {"id":14,"peer_stores":[1,30,32]}
    4. ...
    1. >> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length>1 and any(.==1) and all(.!=(30,31)))}"
    1. {"id":24,"peer_stores":[1,32,33]}

    在 [store30, store31] 宕机时,找出能安全地通过创建 remove-peer Operator 进行处理的所有 Region,即有且仅有一个 DownPeer 的 Region:

    1. {"id":12,"remove_peer":[30]}
    2. {"id":4,"remove_peer":[31]}
    3. {"id":22,"remove_peer":[30]}