整个数据库有很多insert很慢

数据量小,这个配置估计没问题(HDD 的硬盘都用过…)

要是大的话,还是建议升级了

IOPS 分为读写两部分,云盘标称的高 IOPS 大都是利用缓存获得提升的读 IOPS;磁盘的性能还包括带宽和 fdatasync,TiKV 在数据写入时需要进行磁盘的 sync 操作,以确保数据已经从缓冲区刷到硬件,再返回给业务侧,具体为 fdatasync 的操作系统调用。

TiKV 磁盘的建议 2GB/s 以上的写带宽,20K 次/s 以上的 fdatasync,在 4KB 高并发 direct 写的测试中 P99.99 低于 3ms;可以使用 fio 新版、或者 pg_test_fsync 工具进行测试。

[图片] [图片] 这是读写测试的结果我看iops正常的 请问有问题吗?

可以加上 -fdatasync=1 选项测一下,例如 大并发每次写4k而且每次 fsync
fio -direct=0 -fdatasync=1 -iodepth=4 -thread=4 -rw=write -ioengine=libaio -bs=4k -filename=./fio_test -size=20G -runtime=60 -group_reporting -name=write_test

https://docs.pingcap.com/zh/tidb/stable/deploy-and-maintain-faq#如何用-fio-命令测试-tikv-实例的磁盘性能

大佬,这个指标是加上-fdatasync=1后测试结果输出的吗

加了参数后测试结果就很差了 应该怎么改善呢

是的,测试的是 fdatasync 的性能

这个主要是硬件上的差异:
参考值一:非 NVMe 的 SSD 的 fdatasync/s 约 5~8K/s
参考值二:中早期 NVMe 的 fdatasync/s 约 20~50K/s
参考值三:当前成熟的 PCIE 3 的 NVMe 约 200~500K/s

2 个赞

阿里云磁盘性能不能改变 是不是只能加节点降低每个kv的iops?

可以加节点扩容在平均负载下让性能保持稳定,但是流量增加时可能会出现高延迟抖动,例如上面测试的 99.99 达到 23ms,可能会遇到性能瓶颈,反映在监控的 TiKV-Details 面板中的 RaftDB 栏的 WAL sync duration

1 个赞

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。