一个集群两个TIDB节点方案如何搭建?

【 TiDB 使用环境】生产环境
【 TiDB 版本】6.1.2
【遇到的问题:问题现象及影响】

我想到一个新的技巧,我们现在为了把客户的业务和自己的内部业务做隔离,在一台pd上安装一个tidb,用来内部服务用,配置较低,但是内部服务够用了,也是在pd节点上安装一个弹性网卡,然后安装上tidb,这样不仅可以实现业务隔离分流,不会因为另外的一个tidb故障导致内部服务中断。而且如果pd的这个tidb性能不够用时,也可以快速增加节点,把内部服务迁移走,和后端开发业务也完全隔离,非常方便。

一个集群安装两个tidb的方式做业务隔离不知道大家群里有没有这样采用,我在官网搜不到资料,请教大家这方面有没有经验。希望大家能回答下。

您看下这个:https://docs.pingcap.com/zh/tidb/stable/placement-rules-in-sql

有过这样的考虑,一定程度上来讲,有一些效果,但是效果有限。具体的效果大小,还要看业务。
这个方案的问题是tikv并没有做隔离,随着越来越多的算子下推到tikv,这种隔离方案,tikv的io和内存可能成为资源瓶颈,引起较多争抢。
如果考虑彻底的隔离方案,可以采用楼上的 placement-rules-in-sql

目前tikv不是瓶颈,而是对外服务有些情况下的不稳定,会导致tidb奔溃,这是我们遇到的问题,所以才想增加tidb节点做隔离。

OOM吗?

一般是3个tidb节点

这用法有点类似传统的主从或者双活方案,tikv稳定的场景下,可以直接增加一个tidb节点

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。