【 TiDB 使用环境】生产环境
作为一个初学者,有以下问题请教大家,先感谢大家的答复
tikv节点初始有3个节点,各节点负载均衡,每个节点mem占用持平都是17G左右,由于数据频繁更新,导致磁盘io繁忙时间占比总是很高。增加了两个节点进行扩容,等数据均衡后,最开始的三个节点men占用高达31G,不应该变小吗,反而变得更大了,这是什么原因?要如何优化调整?
【 TiDB 使用环境】生产环境
作为一个初学者,有以下问题请教大家,先感谢大家的答复
tikv节点初始有3个节点,各节点负载均衡,每个节点mem占用持平都是17G左右,由于数据频繁更新,导致磁盘io繁忙时间占比总是很高。增加了两个节点进行扩容,等数据均衡后,最开始的三个节点men占用高达31G,不应该变小吗,反而变得更大了,这是什么原因?要如何优化调整?
store region score 每个节点都是58w左右
REGION_WEIGHT 分别是多少?
磁盘是SSD么?扩容之后,grafana里leader副本分布均匀么?排查过热点么?
SSD,扩容后分布是均衡的
都是1
确实是一致在均衡 看看下面有个score的图表,是不是评分也在变?之前遇到一种情况是节点均衡数据增加、资源紧张、调度出去、资源宽松、均衡数据增加……之后就一直循环,最后重启了一次就好了。
在扩容结束之后已经重启过了