【 TiDB 使用环境】测试
【 TiDB 版本】
【复现路径】启动集群失败
【遇到的问题:问题现象及影响】集群部署启动失败-部署两台机器,主那台的服务一直起不来
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
救救孩子,几个小时了,没搞出来为啥
【 TiDB 使用环境】测试
【 TiDB 版本】
【复现路径】启动集群失败
【遇到的问题:问题现象及影响】集群部署启动失败-部署两台机器,主那台的服务一直起不来
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
这个instance’s log里面有什么线索没?
pd启动失败前,kubelet已经报错了。是这个问题导致的通信中断吧。
备节点都没有kubelet这个服务,这个可能是以前安装的残留,会影响吗
测试环境,最好保持干净,不然有时会遇到一些奇奇怪怪的错误
诶,之前其他人部过一次,可能有一部分这原因吧,现在找不到处理方法
kubelet 不是也用 etcd 吗,端口号也是 2379 端口吧,你把 tidb 集群的 pd 端口换一个
换了端口,报错还是一样的
你是用tiup安装的吗?
2台机器。你怎么分布的?1台 tidb pd monitor 1台tikv这样吗?
建议铲掉,重新安装吧。感觉像是tikv数量问题,tikv你是搞了1个副本,还是同1个服务器搞了3个分区作为他的副本。
嗯嗯用的的tiup,两台分别都有 tidb pd monitor tikv。清除后重新安装,只留一台机器,还是报同样的错
如果你只用一台安装,用快速上手这里的操作,配置文件里面写好IP对应的服务,那就如下图所示,所有服务写一个IP,就算有2台,monotor也是写1个,pd和tikv服务不能只写2个ip要么1个要么3个以上。 你把yaml文件发下看看
global:
user: “tidb”
ssh_port: 22
deploy_dir: “/home/tidb/tidb-deploy”
data_dir: “/home/tidb/tidb-data”
monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115
deploy_dir: “/home/tidb/tidb-deploy/monitored-9100”
data_dir: “/home/tidb/tidb-data/monitored-9100”
log_dir: “/home/tidb/tidb-deploy/monitored-9100/log”
server_configs:
tidb:
log.slow-threshold: 300
pd:
replication.location-labels: [“host”]
schedule.leader-schedule-limit: 4
schedule.region-schedule-limit: 2048
schedule.replica-schedule-limit: 64
/* pd:
replication.location-labels: [“host”]
schedule.leader-schedule-limit: 4
schedule.region-schedule-limit: 2048
schedule.replica-schedule-limit: 64 */
pd_servers:
感觉是端口启动时出现报错,看下日志呢。
如果是测试环境简单测试的话,建议直接用tiup playground v6.5.8 --host 0.0.0.0 --tag smk-test --without-monitor --tiflash 0命令一键启动吧,一台机器没啥好集群部署的。
最终还是要部署多台的,我这是部署失败了,所以试了一下一台的,没想到也失败了
里面啥也没有