在tidb-operator部署的时候遇到的问题

你好 上周的三台服务器搭的tidb集群(k8s容器化部署),已经部署成功了。上午由于意外重启了部署集群的一个节点,然后发现po的状态不对了,还少了一个tidb角色,多了一个tidb-cluster-tikv-3角色(正常的应该是tidb-cluster-tidb-0,1,2)

这个这样的,由于有节点挂掉,导致自动故障转移,会新增一个 tikv 实例,但由于节点总数只有 3台,我们默认调度是会考虑高可用的,导致新增的 tikv 实例无法调度处于 pending 状态。 这个是合理现象,集群应该是不受影响,可以继续使用的。 麻烦执行下:kubectl get tc -n tidb-admin -o yaml 把信息发给我确认下。

1 个赞


你好 ,执行信息已通过图片粘上去了,另外问一下,需要手动将状态调成之前的样子吗,即把新增的pending状态的tikv3去掉,把不见了的tipd-2弄回来?

再补充一个问题 ,我如何使用tidb,目前只是装好了,我如何暴露端口给客户端连接使用?(譬如我想用navicat连这个k8s环境下的tidb)没有在pingcap官方文档上看到

tidb 本来就只有 2 个实例, tidb-o ,tidb-1。 如果想增加 tidb 实例的话,修改 values.yaml 里的 tidb 的 replicas 参数就可以。
想去掉 pending 的 tikv 需要手动删除 tc.status.tikv.failureStores,这个操作不建议执行,目前集群是正常的。

访问方式参考:
https://pingcap.com/docs-cn/v3.0/tidb-in-kubernetes/deploy/access-tidb/
https://pingcap.com/docs-cn/v3.0/tidb-in-kubernetes/troubleshoot/

补充 @xiaojingchen
https://pingcap.com/docs-cn/v3.0/tidb-in-kubernetes/faq/

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。