Tidb的pod一直CrashLoopBackoff,tidb-operator没有问题,pd、tikv没有问题

NAME                                      READY   STATUS             RESTARTS   AGE   IP               NODE                 NOMINATED NODE   READINESS GATES
tidb-cluster-discovery-6b7f8d9954-xn9gs   1/1     Running            0          26m   10.244.141.222   kubernetes-node-01   <none>           <none>
tidb-cluster-monitor-67f5d8d845-7r7s2     3/3     Running            0          26m   10.244.42.89     kubernete-node-02    <none>           <none>
tidb-cluster-pd-0                         1/1     Running            1          26m   10.244.141.223   kubernetes-node-01   <none>           <none>
tidb-cluster-pd-1                         1/1     Running            0          26m   10.244.2.27      kubernetes-node-03   <none>           <none>
tidb-cluster-pd-2                         1/1     Running            0          26m   10.244.42.90     kubernete-node-02    <none>           <none>
tidb-cluster-tidb-0                       1/2     Running            5          24m   10.244.141.225   kubernetes-node-01   <none>           <none>
tidb-cluster-tidb-1                       1/2     Running            5          24m   10.244.2.29      kubernetes-node-03   <none>           <none>
tidb-cluster-tidb-2                       1/2     CrashLoopBackOff   8          19m   10.244.42.92     kubernete-node-02    <none>           <none>
tidb-cluster-tidb-3                       1/2     CrashLoopBackOff   8          19m   10.244.141.226   kubernetes-node-01   <none>           <none>
tidb-cluster-tidb-4                       1/2     CrashLoopBackOff   7          13m   10.244.2.30      kubernetes-node-03   <none>           <none>
tidb-cluster-tikv-0                       1/1     Running            0          24m   10.244.141.224   kubernetes-node-01   <none>           <none>
tidb-cluster-tikv-1                       1/1     Running            0          24m   10.244.2.28      kubernetes-node-03   <none>           <none>
tidb-cluster-tikv-2                       1/1     Running            0          24m   10.244.42.91     kubernete-node-02    <none>           <none>

一个master三个node都是2C4G,helm部署在k8s上的,重装了好几回还是一直在crash,logs导出看了一下报错是

/usr/local/bin/tidb_start_script.sh: line 36: HEADLESS_SERVICE_NAME: parameter not set

tidb-cluster集群是通过

helm install charts/tidb-cluster --name=tidb-cluster --namespace=tidb --version=v1.1.0-rc.1

命令安装的 不是很明白这个HEADLESS_SERVICE_NAME参数是在哪没有设置?

您好: 麻烦参考这个诊断模式先试一下,多谢

能否详细告知如何诊断?我在发帖之前就试过诊断模式,进到pod里之后没有/usr/local这个文件夹,但是logs出来的错误就是

/usr/local/bin/tidb_start_script.sh: line 36: HEADLESS_SERVICE_NAME: parameter not set 我该如何诊断呢?

Hi HuChuYangALICE,

  1. 请升级 TiDB Operator 到 1.1.0-rc.1, HEADLESS_SERVICE_NAME 这个环境变量是新版本引入的。
  2. TiDB Operator 1.1 不再建议使用 Helm Chart 部署 TiDB 集群,从 1.1 版本开始,我们不再维护 tidb-cluster chart,一些新功能并没有在 tidb-cluster chart 中支持,建议直接使用 TiDBCluster CR 部署,具体可以参考官方文档,tidb-cluster chart 涉及功能的迁移事项可以在这里查看。

好的,我重新部署了几次1.1版本的就好了

:+1: