【 TiDB 使用环境`】
生产环境
【 TiDB 版本】
v5.2.2
【遇到的问题】
项目tidb集群频繁出现报错信息提示磁盘的写延迟很大,和其他项目比较发现磁盘的性能较差(通过dd命令进行测试),可以要求提出具体对磁盘的性能的要求,例如iops,读写延迟等具体的要求。
【复现路径】做过哪些操作出现的问题
目前可以的存储采用超融合,且底部的磁盘都是sata接口的SSD。
【问题现象及影响】
【 TiDB 使用环境`】
生产环境
【 TiDB 版本】
v5.2.2
【遇到的问题】
项目tidb集群频繁出现报错信息提示磁盘的写延迟很大,和其他项目比较发现磁盘的性能较差(通过dd命令进行测试),可以要求提出具体对磁盘的性能的要求,例如iops,读写延迟等具体的要求。
【复现路径】做过哪些操作出现的问题
目前可以的存储采用超融合,且底部的磁盘都是sata接口的SSD。
【问题现象及影响】
这个需要根据使用场景来评估了,据我所知
有用 HDD的,机械的哪种,但是 IO 没有很高的要求,就慢慢跑也可以接受
也有用 普通SSD 的,对于 IO 的能力,没有特殊的要求
也有用 NVME 的,对于 IO 能力有较高的要求
综上所述,可以按照场景的需求,设定非性能型集群和高性能性集群…来满足不同场景的要求
有时候客户会要一些具体的参数,流入IOPS,读写延迟,等等。这些个参数不太好提供。
您好:
以下仅作为参考。
通过
sudo fio -ioengine=psync -bs=32k -fdatasync=1 -thread -rw=randread -size=10G -filename=fio_randread_test -name='fio randread test' -iodepth=4 -runtime=60 -numjobs=4 -group_reporting --output-format=json --output=fio_randread_result.json
测试的 rand read iops 不低于 40000
通过
sudo fio -ioengine=psync -bs=32k -fdatasync=1 -thread -rw=randrw -percentage_random=100,0 -size=10G -filename=fio_randread_write_test -name='fio mixed randread and sequential write test' -iodepth=4 -runtime=60 -numjobs=4 -group_reporting --output-format=json --output=fio_randread_write_test.json
测试的 rand read iops 不低于 10000
seq write iops 不低于 10000
通过
sudo fio -ioengine=psync -bs=32k -fdatasync=1 -thread -rw=randrw -percentage_random=100,0 -size=10G -filename=fio_randread_write_latency_test -name='fio mixed randread and sequential write test' -iodepth=1 -runtime=60 -numjobs=1 -group_reporting --output-format=json --output=fio_randread_write_latency_test.json
测试的 rand read lat 不高于 250000
seq write lat 不高于 30000
的 nvme 接口的 固态硬盘。
你这个部署 不是不正常了 是太差了
写入只有15m 连机械盘都不如。机械盘写是300m
你们底部的ssd应该用了 ssd盘做了raid5冗余。 建议直接tidb裸机部署。
正常的ssd写是500m 读也是500m
你这样的速度说明raid5底部出现了磁盘损坏
上面没说清楚 sata接口的ssd 读写是500m m2接口的最少有1000m 高端的有6000m左右 u2接口的企业盘是8000m的读写。所以绕过超融合吧。至少磁盘得是直通ssd
用sata ssd 正常盘没你的写那么慢。机器是有硬件问题的。
兄弟,你上上面的事件是微妙还是纳秒?
我也一直认为他们磁盘的性能有问题,客户那边的人已经在测试他们的超融合系统了。
usec 微妙
谢谢,兄弟们的信息给我作为参考。
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。