tidb-operator自动伸缩 未启用TidbCluster 弹性伸缩 是怎么做到的?

tidb-operator打印的日志 请问这种情况是怎么发生的?我该怎么关闭自动伸缩?

  1. 麻烦反馈下查询结果 cat values-tidb-operator.yaml | grep AutoScaling
  2. stat values-tidb-operator.yaml
  3. ls -lart values-tidb-operator.yaml
  4. history | grep values-tidb-operator.yaml

image

版本

image 这个对象也没有

  1. kubectl get pod -A -o wide
  2. kubectl logs -n tidb-admin > /xxx/controller.txt
  3. kubectl logs -n tidb-admin > /xxx/scheduler.txt
    麻烦反馈下集群当前配置和 operator 的日志信息,-n 按照你的名称替换

pod.txt (153.8 KB)

controller.txt.txt (756.9 KB) kube-scheduler.txt.txt (1.4 MB) tidb-scheduler.txt.txt (1.5 KB)

代码写死了吗?

  1. 看起来 10 号 就已经没有足够的 pv 来扩容 tikv 了
  2. 这个扩容是在 11 号
  3. tc 里面 tikv 当前配置的 spce.replicas 是多少?

只给了6个 我很奇怪 这个伸缩到底是哪里做的?我怎么关掉它?

状态却变成了9个

  1. 麻烦 describe 一下 tikv-7 和 tikv-8 的 信息,多谢。
  2. kubeclt logs -n xxx tikv-7(8) -c tidb 查看下,多谢。

tikv7.txt (2.9 KB) tikv8.txt (2.9 KB) 这是两个pod的描述 因为没有起来 所以没有输出日志

有进展会尽快反馈,多谢。

没事 我看tidb-operator源码 找到问题了

已经解决了吗? 请问是哪里有问题,麻烦帮忙指出下,多谢。

可能是触发了 Failover, 关闭这个功能的话可以重新部署 TiDB Operator, 把 controllerManager.autoFailover 设置成 false, 不过还是要检查下 tikv-0, tikv-1, tikv-2 是出现了什么问题触发了 Failover

@Hacker_zKg8MmGa 方便分享一下问题原因以及解决方案吗?