Tiflash和haproxy同一个tidb节点会不会导致资源争用

【 TiDB 使用环境】生产环境、测试

【 TiDB 版本】v5.1.0

【遇到的问题:问题现象及影响】
我有三节点TiDB分别为192.168.1.10,192.168.20.y,192.168.1.30,其中192.168.1.30设置供tiflash查询使用(对应192.168.1.80/90),隔离级别为tidb,tiflash。192.168.1.10/20二台供生产使用,并将这二台tidb做了haproxy,haproxy配置文件及启动服务都设置在192.168.1.30中,最近发现很多直接访问tiflash的大查询,会造成生产集群拥堵,当kill这些大查询时拥堵会减少,不知这样设置共用192.168.1.30是否会导致资源发生争用,进而导致上述问题?

这个拥堵是指什么现象,按照描述,1.30是对1.10 1.20的tidb进行转发。如果这些生产使用的是TiKV 理论不应该影响。

我生产集群部署了MQ,当tiflash有大的查询时候,我的MQ就出现拥堵,kill这些时候MQ拥堵就下降,以前没有做haproxy时候,就是让业务直接访问10/20没有这个现象。

tidb 不要和 tiflash 做混布吧,不太合适阿, haproxy 资源少点都可以,也不合适和 tiflash 做混布

资源争抢会很严重的

1 个赞
  1. 看一下tiflsh到底堵在哪儿
  2. 用tiflash查询到底是不是最优解

会,不过可以考虑做 cpu 、内存配置

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。