新tidb环境磁盘io问题咨询

【 TiDB 使用环境】生产环境 /测试/ Poc
生产
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
公司准备对tidb做迁移,把原有的云上集群,迁移到自建云上。目前云上集群磁盘是普通sas盘,读写io是5000 :sweat_smile:新环境io8K随机写大概在16万IOPS,混合读写大概在22万IOPS,4K随机读写(7:3)大概在17.5万IOPS。这种是不是可以?
【资源配置】
【附件:截图/日志/监控】

POC 压测一下~

参考一下
c6e1c42fdf0b573e5ceb22aa53b654c

好的,sysbench或者tpc-c测么?

用fio测试,可以参考:

1 个赞

参考下这里

好的,多谢

谢谢,我都试试

来自官方大佬的建议
IOPS 分为读写两部分,云盘标称的高 IOPS 大都是利用缓存获得提升的读 IOPS;磁盘的性能还包括带宽和 fdatasync,TiKV 在数据写入时需要进行磁盘的 sync 操作,以确保数据已经从缓冲区刷到硬件,再返回给业务侧,具体为 fdatasync 的操作系统调用。 TiKV 磁盘的建议 2GB/s 以上的写带宽,20K 次/s 以上的 fdatasync,在 4KB 高并发 direct 写的测试中 P99.99 低于 3ms;可以使用 fio 新版、或者 pg_test_fsync 工具进行测试。可以加上 -fdatasync=1 选项测一下,例如 大并发每次写4k而且每次 fsync fio -direct=0 -fdatasync=1 -iodepth=4 -thread=4 -rw=write -ioengine=libaio -bs=4k -filename=./fio_test -size=20G -runtime=60 -group_reporting -name=write_test fdatasync的性能参考 参考值一:非 NVMe 的 SSD 的 fdatasync/s 约 5~8K/s 参考值二:中早期 NVMe 的 fdatasync/s 约 20~50K/s 参考值三:当前成熟的 PCIE 3 的 NVMe 约 200~500K/s