【 TiDB 使用环境】生产环境
【 TiDB 版本】7.5.1
现有Tikv的节点磁盘如图:
3个节点都是1.8T,另外3个节点都是700G。
现在因为一些原因,想要新增2个都是3T的Tikv节点,下线2个1.8T的Tikv节点。
问题:
1.担心更新后数据倾斜严重,机器压力不均。
2.没有设置tikv磁盘大小的参数,扩容的时候就指定,例如设置为2T,缓解数据倾斜的影响。
注:目前上T的磁盘都是nvme的,几百G的是普通ssd.每台Tikv配置都是32C64G
【 TiDB 使用环境】生产环境
【 TiDB 版本】7.5.1
现有Tikv的节点磁盘如图:
3个节点都是1.8T,另外3个节点都是700G。
现在因为一些原因,想要新增2个都是3T的Tikv节点,下线2个1.8T的Tikv节点。
问题:
1.担心更新后数据倾斜严重,机器压力不均。
2.没有设置tikv磁盘大小的参数,扩容的时候就指定,例如设置为2T,缓解数据倾斜的影响。
注:目前上T的磁盘都是nvme的,几百G的是普通ssd.每台Tikv配置都是32C64G
什么原因非要增加3T的节点?如果业务数据量增加,建议扩容几个和部署tikv机器一样配置的服务器,而不是非要搞差异化配置,后期集群调度、数据均衡很容易出问题,且服务器要么统一ssd,要么普通磁盘,不要差异化部署。
tikv有个参数: raftstore.capacity
允许的最大数据存储大小,默认使用当前磁盘容量
PD的low-space-ratio参数控制方法,就是按照tikv上报的capacity去做的调度
资源问题,期望是nvme,但是不够多,ssd也紧张
感谢大佬,我研究试试
默认调度会导致大磁盘节点存储更多数据,小磁盘节点负载不均。
用标签调整一下看看
store-weight参数,让 PD 按磁盘可用容量比例分配 Region,避免大磁盘闲置、小磁盘过载。