TiDB Sysbench 性能对比测试报告 - v5.4.0 对比 v5.3.0

测试概况

本次测试对比了 TiDB v5.4.0 和 v5.3.0 在 OLTP 场景下的 Sysbench 性能表现。结果显示,相比于 v5.3.0,v5.4.0 的写负载 (Write-heavy Workload) 性能有 2.59% ~ 4.85% 的提升。

测试环境 (AWS EC2)

硬件配置

服务类型 EC2 类型 实例数
PD m5.xlarge 3
TiKV i3.4xlarge 3
TiDB c5.4xlarge 3
Sysbench c5.9xlarge 1

软件版本

服务类型 软件版本
PD v5.3.0、v5.4.0
TiDB v5.3.0、v5.4.0
TiKV v5.3.0、v5.4.0
Sysbench 1.1.0-ead2689

参数配置

两个版本使用相同的配置

TiDB 参数配置

  1. log.level: "error"
  2. performance.max-procs: 20
  3. prepared-plan-cache.enabled: true
  4. tikv-client.max-batch-wait-time: 2000000

TiKV 参数配置

  1. storage.scheduler-worker-pool-size: 5
  2. raftstore.store-pool-size: 3
  3. raftstore.apply-pool-size: 3
  4. rocksdb.max-background-jobs: 8
  5. raftdb.max-background-jobs: 4
  6. raftdb.allow-concurrent-memtable-write: true
  7. server.grpc-concurrency: 6
  8. readpool.unified.min-thread-count: 5
  9. readpool.unified.max-thread-count: 20
  10. readpool.storage.normal-concurrency: 10
  11. pessimistic-txn.pipelined: true

TiDB 全局变量配置

  1. set global tidb_hashagg_final_concurrency=1;
  2. set global tidb_hashagg_partial_concurrency=1;
  3. set global tidb_enable_async_commit = 1;
  4. set global tidb_enable_1pc = 1;
  5. set global tidb_guarantee_linearizability = 0;
  6. set global tidb_enable_clustered_index = 1;

HAProxy 配置 - haproxy.cfg 文件

更多有关 HAProxy 在 TiDB 上的使用,可参阅 HAProxy 在 TiDB 中的最佳实践

  1. global # 全局配置。
  2. chroot /var/lib/haproxy # 更改当前目录并为启动进程设置超级用户权限,从而提高安全性。
  3. pidfile /var/run/haproxy.pid # 将 HAProxy 进程的 PID 写入 pidfile。
  4. maxconn 4000 # 每个 HAProxy 进程所接受的最大并发连接数。
  5. user haproxy # 同 UID 参数。
  6. group haproxy # 同 GID 参数,建议使用专用用户组。
  7. nbproc 64 # 在后台运行时创建的进程数。在启动多个进程转发请求时,确保该值足够大,保证 HAProxy 不会成为瓶颈。
  8. daemon # 让 HAProxy 以守护进程的方式工作于后台,等同于命令行参数“-D”的功能。当然,也可以在命令行中用“-db”参数将其禁用。
  9. defaults # 默认配置。
  10. log global # 日志继承全局配置段的设置。
  11. retries 2 # 向上游服务器尝试连接的最大次数,超过此值便认为后端服务器不可用。
  12. timeout connect 2s # HAProxy 与后端服务器连接超时时间。如果在同一个局域网内,可设置成较短的时间。
  13. timeout client 30000s # 客户端与 HAProxy 连接后,数据传输完毕,即非活动连接的超时时间。
  14. timeout server 30000s # 服务器端非活动连接的超时时间。
  15. listen tidb-cluster # 配置 database 负载均衡。
  16. bind 0.0.0.0:3390 # 浮动 IP 和 监听端口。
  17. mode tcp # HAProxy 要使用第 4 层的传输层。
  18. balance roundrobin # 连接数最少的服务器优先接收连接。`leastconn` 建议用于长会话服务,例如 LDAP、SQL、TSE 等,而不是短会话协议,如 HTTP。该算法是动态的,对于启动慢的服务器,服务器权重会在运行中作调整。
  19. server tidb-1 10.9.18.229:4000 check inter 2000 rise 2 fall 3 # 检测 4000 端口,检测频率为每 2000 毫秒一次。如果 2 次检测为成功,则认为服务器可用;如果 3 次检测为失败,则认为服务器不可用。
  20. server tidb-2 10.9.39.208:4000 check inter 2000 rise 2 fall 3
  21. server tidb-3 10.9.64.166:4000 check inter 2000 rise 2 fall 3

测试方案

  1. 通过 TiUP 部署 TiDB v5.4.0 和 v5.3.0。
  2. 通过 Sysbench 导入 16 张表,每张表有 1000 万行数据。
  3. 分别对每个表执行 analyze table 命令。
  4. 备份数据,用于不同并发测试前进行数据恢复,以保证每次数据一致。
  5. 启动 Sysbench 客户端,进行 point_selectread_writeupdate_indexupdate_non_index 测试。通过 HAProxy 向 TiDB 加压,每种负载每个并发数各测试 20 分钟。
  6. 每轮完成后停止集群,使用之前的备份的数据覆盖,再启动集群。

准备测试数据

执行以下命令来准备测试数据:

  1. sysbench oltp_common \
  2. --threads=16 \
  3. --rand-type=uniform \
  4. --db-driver=mysql \
  5. --mysql-db=sbtest \
  6. --mysql-host=$aws_nlb_host \
  7. --mysql-port=$aws_nlb_port \
  8. --mysql-user=root \
  9. --mysql-password=password \
  10. prepare --tables=16 --table-size=10000000

执行测试命令

执行以下命令来执行测试:

  1. sysbench $testname \
  2. --threads=$threads \
  3. --time=1200 \
  4. --report-interval=1 \
  5. --rand-type=uniform \
  6. --db-driver=mysql \
  7. --mysql-db=sbtest \
  8. --mysql-host=$aws_nlb_host \
  9. --mysql-port=$aws_nlb_port \
  10. run --tables=16 --table-size=10000000

测试结果

Point Select 性能

Threads v5.3.0 TPS v5.4.0 TPS v5.3.0 95% latency (ms) v5.4.0 95% latency (ms) TPS 提升 (%)
300 266041.84 264345.73 1.96 2.07 -0.64
600 351782.71 348715.98 3.43 3.49 -0.87
900 386553.31 399777.11 5.09 4.74 3.42

v5.4.0 对比 v5.3.0,Point Select 性能基本持平,略提升了 0.64%。

Point Select

Update Non-index 性能

Threads v5.3.0 TPS v5.4.0 TPS v5.3.0 95% latency (ms) v5.4.0 95% latency (ms) TPS 提升 (%)
300 40804.31 41187.1 11.87 11.87 0.94
600 51239.4 53172.03 20.74 19.65 3.77
900 57897.56 59666.8 27.66 27.66 3.06

v5.4.0 对比 v5.3.0,Update Non-index 性能提升了 2.59%。

Update Non-index

Update Index 性能

Threads v5.3.0 TPS v5.4.0 TPS v5.3.0 95% latency (ms) v5.4.0 95% latency (ms) TPS 提升 (%)
300 17737.82 18716.5 26.2 24.83 5.52
600 21614.39 22670.74 44.98 42.61 4.89
900 23933.7 24922.05 62.19 61.08 4.13

v5.4.0 对比 v5.3.0,Update Index 性能提升了 4.85%。

Update Index

Read Write 性能

Threads v5.3.0 TPS v5.4.0 TPS v5.3.0 95% latency (ms) v5.4.0 95% latency (ms) TPS 提升 (%)
300 3810.78 3929.29 108.68 106.75 3.11
600 4514.28 4684.64 193.38 186.54 3.77
900 4842.49 4988.49 282.25 277.21 3.01

v5.4.0 对比 v5.3.0,Read Write 性能提升了 3.30%。

Read Write