TiDB Sysbench 性能对比测试报告 - v5.3.0 对比 v5.2.2

    软件版本

    服务类型 软件版本
    PD v5.2.2、v5.3.0
    TiDB v5.2.2、v5.3.0
    TiKV v5.2.2、v5.3.0
    Sysbench 1.1.0-ead2689

    参数配置

    两个版本使用相同的配置

    TiDB 参数配置

    TiKV 参数配置

    1. raftstore.store-pool-size: 3
    2. raftstore.apply-pool-size: 3
    3. rocksdb.max-background-jobs: 8
    4. raftdb.allow-concurrent-memtable-write: true
    5. server.grpc-concurrency: 6
    6. readpool.unified.min-thread-count: 5
    7. readpool.unified.max-thread-count: 20
    8. readpool.storage.normal-concurrency: 10
    9. pessimistic-txn.pipelined: true

    TiDB 全局变量配置

    HAProxy 配置 - haproxy.cfg 文件

    更多有关 HAProxy 在 TiDB 上的使用,可参阅 。

    1. global # 全局配置。
    2. chroot /var/lib/haproxy # 更改当前目录并为启动进程设置超级用户权限,从而提高安全性。
    3. pidfile /var/run/haproxy.pid # 将 HAProxy 进程的 PID 写入 pidfile。
    4. maxconn 4000 # 每个 HAProxy 进程所接受的最大并发连接数。
    5. user haproxy # 同 UID 参数。
    6. nbproc 64 # 在后台运行时创建的进程数。在启动多个进程转发请求时,确保该值足够大,保证 HAProxy 不会成为瓶颈。
    7. daemon # 让 HAProxy 以守护进程的方式工作于后台,等同于命令行参数“-D”的功能。当然,也可以在命令行中用“-db”参数将其禁用。
    8. defaults # 默认配置。
    9. log global # 日志继承全局配置段的设置。
    10. retries 2 # 向上游服务器尝试连接的最大次数,超过此值便认为后端服务器不可用。
    11. timeout connect 2s # HAProxy 与后端服务器连接超时时间。如果在同一个局域网内,可设置成较短的时间。
    12. timeout client 30000s # 客户端与 HAProxy 连接后,数据传输完毕,即非活动连接的超时时间。
    13. timeout server 30000s # 服务器端非活动连接的超时时间。
    14. listen tidb-cluster # 配置 database 负载均衡。
    15. bind 0.0.0.0:3390 # 浮动 IP 和 监听端口。
    16. mode tcp # HAProxy 要使用第 4 层的传输层。
    17. balance roundrobin # 连接数最少的服务器优先接收连接。`leastconn` 建议用于长会话服务,例如 LDAP、SQL、TSE 等,而不是短会话协议,如 HTTP。该算法是动态的,对于启动慢的服务器,服务器权重会在运行中作调整。
    18. server tidb-1 10.9.18.229:4000 check inter 2000 rise 2 fall 3 # 检测 4000 端口,检测频率为每 2000 毫秒一次。如果 2 次检测为成功,则认为服务器可用;如果 3 次检测为失败,则认为服务器不可用。
    19. server tidb-3 10.9.64.166:4000 check inter 2000 rise 2 fall 3
    1. 通过 TiUP 部署 TiDB v5.3.0 和 v5.2.2。
    2. 通过 Sysbench 导入 16 张表,每张表有 1000 万行数据。
    3. 分别对每个表执行 analyze table 命令。
    4. 备份数据,用于不同并发测试前进行数据恢复,以保证每次数据一致。
    5. 启动 Sysbench 客户端,进行 point_selectread_writeupdate_indexupdate_non_index 测试。通过 HAProxy 向 TiDB 加压,每种负载每个并发数各测试 20 分钟。
    6. 每轮完成后停止集群,使用之前的备份的数据覆盖,再启动集群。

    执行以下命令来准备测试数据:

    执行测试命令

    1. sysbench $testname \
    2. --threads=$threads \
    3. --time=1200 \
    4. --report-interval=1 \
    5. --rand-type=uniform \
    6. --db-driver=mysql \
    7. --mysql-db=sbtest \
    8. --mysql-host=$aws_nlb_host \

    Point Select 性能

    v5.3.0 对比 v5.2.2,Point Select 性能基本持平,略下降了 0.81%。

    Threads v5.2.2 TPS v5.3.0 TPS v5.2.2 95% latency (ms) v5.3.0 95% latency (ms) TPS 提升 (%)
    300 39715.31 40041.03 11.87 12.08 0.82
    600 50239.42 51110.04 20.74 20.37 1.73
    900 57073.97 57252.74 28.16 27.66 0.31

    v5.3.0 对比 v5.2.2,Update Non-index 性能基本持平,略上升了 0.95%。

    Update Index 性能

    v5.3.0 对比 v5.2.2,Update Index 性能基本持平,略上升了 1.83%。

    Update Index

    Read Write 性能

    Threads v5.2.2 TPS v5.3.0 TPS v5.2.2 95% latency (ms) v5.3.0 95% latency (ms) TPS 提升 (%)
    300 3872.01 3848.63 106.75 106.75 -0.60
    600 4514.17 4471.77 200.47 196.89 -0.94
    900 4877.05 4861.45 287.38 282.25 -0.32

    v5.3.0 对比 v5.2.2,Read Write 性能基本持平,略下降了 0.62%。