虚拟机集群扩容物理机的tikv节点部署方案咨询

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】V4.0.4

【问题描述】 由于目前的环境是虚拟机环境,我们计划把tikv节点全部改成物理机多实例的集群,在缩容虚拟机tikv节点前,计划先把3台物理机(每台物理机计划部署3个实例,3台物理机共计9个tikv节点)扩容上去。后续再缩容虚拟机的tikv。
一、配置cpu:72c,numa信息
NUMA node0 CPU(s): 0-17,36-53
NUMA node1 CPU(s): 18-35,54-71

二、内存:376G

三、SSD磁盘,每台物理机挂载挂载多个盘:如下
/dev/mapper/data1vg-data1lv 1.7T 195G 1.5T 12% /data1
/dev/mapper/data2vg-data2lv 1.7T 183G 1.5T 11% /data2
/dev/mapper/data3vg-data3lv 1.7T 196G 1.5T 12% /data3

四、根据以上信息,想咨询下以下几个扩容的问题
1、帮忙确认下以下附件中,扩容配置项是否可行(只写了一个物理机的扩容配置)
扩容配置.txt (1.8 KB)

2、如果可行,再帮忙解答下以下几个配置项
1)numa_node由于只有0和1,那么如果配置3个节点,是否有1个节点使用了其中36个cpu?是否有更优的节点数配置?
2)readpool.unified.max-thread-count 计算结果是 cores * 0.8 / TiKV 数量= 720.8/3 =19 是否可行?
3)storage.block-cache.capacity 计算结果是 MEM_TOTAL * 0.5 / TiKV 实例数量) = 376
0.5/3=62 是否可行?
4)根据磁盘的挂载情况,raftstore.capacity 是否直接填写 1700 即可?还是说可以直接不需要这个配置?

由于是在虚拟机环境扩容物理机的节点,比较少这种场景的方案,还请帮忙解答下,感谢!

多个实例不需要写多个 tikv_servers ,tikv_servers 是一个列表:https://github.com/pingcap/docs-cn/blob/release-4.0/config-templates/complex-multi-instance.yaml#L74
image

单机多实例部署 TiKV 的话,可以考虑不绑定 numa ,如果是单机多实例部署 TiDB 的话,建议绑定 numa。

readpool.unified.max-thread-count 和 storage.block-cache.capacity 计算可以的,raftstore.capacity 填写 1700 吧。
参数按照官方文档的计算公式计算即可:https://docs.pingcap.com/zh/tidb/dev/hybrid-deployment-topology#混合部署的关键参数介绍

好的,多谢解答
tikv_servers: 是手误复制多了

嗯嗯不客气

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。