TiKV空间回收的问题

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】v4.0.9

【问题描述】

我们的TiKV部署方式是单机多实例部署,中间的主要操作包括:
1.灌入初始数据时,做过truncate、delete等动作;
2.原先TiKV的磁盘容量是2T的,因存储数据越来越多,后来加过几个实例,磁盘容量是4T容量的;
经过一段时间,发现请求落在4T的TiKV实例上,处理速度较慢,因此我们做了下面的事:
1.继续加了几个磁盘2T的TiKV实例
2.将4T的TiKV实例去掉
新增的2T磁盘和4T磁盘总容量上,二者相差不大,按理,总容量基本保持不变,
现在发现,已使用的存储空间由83%降低到20%左右。
我的疑问是:TiDB可能做了什么,怎么查~


若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

可以看下是不是 GC 和 Compaction 引起的。

那请问如果查看数据库存储的使用方面的统计信息和集群实际使用的大小相差很大,我能否手工触发GC和Compaction?

可以参考这个:https://docs.pingcap.com/zh/tidb/v4.0/tikv-control#手动-compact-单个-tikv-的数据

非常感谢

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。