TIDB writeCF索引压缩效果差

https://github.com/tikv/tikv/blob/bbfedd409b5965c04b9edcb34f0a0907c75d6dd2/components/engine_rocks/src/sst.rs#L235

应该比较确定是没有使用字典相关的配置。max_dict_bytes和zstd_max_train_bytes在facebook的文档里面都是压缩字典相关的配置。
不过能找到设置的位置,你可以尝试修改编译,看看是否有提高。

https://github.com/tikv/tikv/pull/597

看这个,应该和rocksdb中的target_file_size_multiplier关系不大。

我看看,辛苦了

想实现自动化,走HTTP协议比较好封装到自动化程序里【例如新增加某个TIDB,PD或者TIKV的节点,或者去掉某个节点】,PD的接口这块哪里能获取呢

我觉得你要能封装,肯定能找到的。github上不难找的,不过这个方式毕竟不推荐。我感觉你要这么弄,风险还挺大的。所以干脆不提。

昨天商业版平凯数据库发布,这个商业版的数据库里面有个TEM工具,可以用来管理商用版的多个数据库集群。而这个TME都是通过tiup来做的。即,他们的视角看,管理集成都不倾向于使用pd httpapi。

你有兴趣可以看看回放,参考一下,这个发布会关于TEM的内容。

好的,辛苦,我再看看吧

不用考虑writeCF中MVCC所占用的存储

确实,因为在全量灌入数据期间,不会产生太多的mvcc的信息,所以这块的存储占用只要是index

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。