【 TiDB 使用环境】 Poc
【 TiDB 版本】v7.5.0
目前集群信息如下:
硬件配置:
三台虚拟机,32C 64G 500G 共享存储(ssd和hdd混合)
需求:
现在想测试下加节点后的tidb的写入能力,计划再增加4个节点(4台上面同样的配置虚机)。
疑问:整个集群配置需要重新调整嘛?4台节点都要给tikv嘛?tikv扩容应该如何操作?
【 TiDB 使用环境】 Poc
【 TiDB 版本】v7.5.0
目前集群信息如下:
硬件配置:
三台虚拟机,32C 64G 500G 共享存储(ssd和hdd混合)
需求:
现在想测试下加节点后的tidb的写入能力,计划再增加4个节点(4台上面同样的配置虚机)。
疑问:整个集群配置需要重新调整嘛?4台节点都要给tikv嘛?tikv扩容应该如何操作?
一般都是kv节点存在瓶颈,可以给kv
存储如果都是所有tikv共享的物理硬盘,那么再加节点没有意义
扩容看官方手册,很简单 使用 TiUP 扩容缩容 TiDB 集群 | PingCAP 文档中心
可以先加1-2台看看效果
tiup工具添加你集群所需角色即可
tikv每个节点存储是隔离的,是和其他的虚机共享的存储
配置文件已经搞定的情况直接两个命令就可以了
tiup cluster check tidb-scale-out.yaml --cluster --user root -p
tiup cluster scale-out tidb-scale-out.yaml --user root -p
新加的两台虚机的环境需要配置嘛?比如说ssh免密的配置
测写入的话,加tikv就可以,另外表结构规划下,尽量平均分配到tikv节点上
好的,先申请2台作为kv节点扩容,看下效果。表开启了region均匀分配
单机能不能加节点测试啊。
可以的,部署的模板端口号改下别冲突了就行了
建议做POC测试的环境按生产环境配置要求配置,这样才能测试出真实性能,参考:https://docs.pingcap.com/zh/tidb/stable/hardware-and-software-requirements#生产环境
达不到官方的推荐的要求了,我们都是虚机,后面通过加节点来分担鸭梨了
好吧,那再给个建议,既然已经虚拟机部署了,别混合部署了
再加在话要使用lables调整数据位置,而且共享存储的IO能力是共享的,IO能力达到峰值后就没有意义添加了
可以直接写模板,完了扩容