【 TiDB 使用环境】测试
【 TiDB 版本】
【复现路径】把sysbench中插入数据从119字节修改为50k,oltp_insert 只有300,自己用go写的测试工具同样是这个结果
【遇到的问题:问题现象及影响】 插入性能太差,查看监控是prewrite好时很高,磁盘用机械和固态结果都一样,详细信息请看监控截图,麻烦大佬帮忙看下
【资源配置】
【附件:截图/日志/监控】
【 TiDB 使用环境】测试
【 TiDB 版本】
【复现路径】把sysbench中插入数据从119字节修改为50k,oltp_insert 只有300,自己用go写的测试工具同样是这个结果
【遇到的问题:问题现象及影响】 插入性能太差,查看监控是prewrite好时很高,磁盘用机械和固态结果都一样,详细信息请看监控截图,麻烦大佬帮忙看下
【资源配置】
【附件:截图/日志/监控】
dashboard看看是不是有写热点啊
这是换固态盘后的监控吗? tiup cluster display, 固态盘测试期间tikv detail-- thread cpu看下, 集群的配置
pd 还有3个tikv全跑在一个盘上了?
嗯 是这样的,一是觉得tps不应该这么低,二是换了ssd还是没变化感觉哪里有问题,没有找到
前面io的截图是ssd的吗?io打满了
是ssd,在换ssd之前是机械还是打满了的
云盘?这个看起来不像真的本地ssd
为了复现问题,在wsl上面装的集群
grafana有磁盘监控页面可以看看使用率 overview最后一个系统信息里面就有
这硬盘负载都到100%了
你这是自己笔记本弄的虚拟机吧 配置差了点 单机部署了3个TIKV 整个集群共用24G内存 Tidb是分布是架构 对配置有要求 换最好的SSD也没用 有其他的资源挤兑 想做性能测试脱离硬件 没有说服力
问题就是,我换了ssd前后都是100%,tps没有变化
你说的有道理,但是还是有必要先查到问题本质,再做对应的资源调整,就像换了固态还是和机械一样的tps,只有300。感觉不应该呀
这点io就把你磁盘打满了,是否要考虑下自己的的ssd是不是真能达到自己想要的ssd. 另外tidb在提交时会将数据写入tikv 数据越多越比较形象性能,他不像mysql那种写入buffer pool一样。
你是觉得是磁盘瓶颈吗
能告知下换前后的ssd型号和容量吗,以及一个磁盘几个tikv用