region split失败,导致region过大

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】7.5.2
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
tidb出现TiKV_approximate_region_size大于1G告警,检查region发现有3个region过大,并且这3个过大的region并没有对应的table信息,同时查看tikv日志出现下图错误,开始报错时间是9.7,GC设置时间为72h。


其中一个region信息感觉很异常如下

手动operator add split-region xxx --policy=approximate 后并没有效果。

要不单独针对这个region做下compact试下?
tiup ctl:v7.5.2 tikv --host xxx:20160 COMPACT -r region_id -d kv -c WRITE --threads 1 --bottommost FORCE
tiup ctl:v7.5.2 tikv --host xxx:20160 COMPACT -r region_id -d kv -c DEFAULT --threads 1 --bottommost FORCE

和这个问题类似,尝试关闭gc filter in compaction特性。

https://docs.pingcap.com/zh/tidb/stable/garbage-collection-configuration#gc-in-compaction-filter-机制

请问这个可以在线做吗?会有啥影响吗?

TiDB集群的GC filter in compaction特性是可以在在线状态下关闭的。这个特性从TiDB 5.0版本开始引入,其作用是在RocksDB的compaction过程中进行GC,避免了单独的GC线程,减少了对IO和CPU的消耗,提高了GC的效率。 在关闭GC filter in compaction 后,可能需要更频繁地使用手动compaction来刺激RocksDB的compaction工作,尤其是在执行大量删除操作后

那感觉关了之后反而变麻烦了,我其实是想问手动compaction会有啥影响不??还有就是不理解我这3个region为什么对象是NULL,并且region的大小还在变动(会增会减),假设是因为drop或者delete导致region对象是NULL,那应该大小不会变了才对吧

低峰期操作吧,影响的只是这个region