Tikv 磁盘大小不均和

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】 tidb5.0.6
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
Tikv磁盘不均衡 容量差距比较大,评分差距巨大
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】



{
“replication”: {
“enable-placement-rules”: “false”,
“isolation-level”: “”,
“location-labels”: “host”,
“max-replicas”: 3,
“strictly-match-label”: “false”
},
“schedule”: {
“enable-cross-table-merge”: “true”,
“enable-debug-metrics”: “false”,
“enable-joint-consensus”: “true”,
“enable-location-replacement”: “true”,
“enable-make-up-replica”: “true”,
“enable-one-way-merge”: “false”,
“enable-remove-down-replica”: “true”,
“enable-remove-extra-replica”: “true”,
“enable-replace-offline-replica”: “true”,
“high-space-ratio”: 0.9,
“hot-region-cache-hits-threshold”: 3,
“hot-region-schedule-limit”: 4,
“leader-schedule-limit”: 4,
“leader-schedule-policy”: “count”,
“low-space-ratio”: 1,
“max-merge-region-keys”: 200000,
“max-merge-region-size”: 20,
“max-pending-peer-count”: 4,
“max-snapshot-count”: 3,
“max-store-down-time”: “30m0s”,
“merge-schedule-limit”: 8,
“patrol-region-interval”: “100ms”,
“region-schedule-limit”: 2048,
“region-score-formula-version”: “v2”,
“replica-schedule-limit”: 64,
“scheduler-max-waiting-operator”: 5,
“split-merge-interval”: “1h0m0s”,
“store-limit-mode”: “manual”,
“tolerant-size-ratio”: 0
}
}

du 分析下目录,是不是有什么大文件。

磁盘空间使用率呢 是差不多的吗

这个是几个月之前新加入的tikv

应该是REGINE不平衡造成的,使用PD的label功能可以解决

检查标签打得是不是有问题

是单节点多实例部署吗 host中label看下配置情况

tiup cluster edit-config 集群名看下各个tikv对应的label都是咋打的