tiup 1.14 部署失败

【 TiDB 使用环境】生产环境
【 TiDB 版本】 7.5
【复现路径】安装tiup,配置topology.yaml, 执行部署命令tiup cluster deploy tidb v7.5.0 ./topology.yaml --user root
topology.yaml:

# Global variables are applied to all deployments and used as the default value of

# the deployments if a specific deployment value is missing.

global:
user: “tidb”
ssh_port: 22
deploy_dir: “/data/tidb-deploy”
data_dir: “/data/tidb-data”

server_configs:
tikv:
readpool.unified.max-thread-count:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
storage.block-cache.capacity: “”
raftstore.capacity: “”
pd:
replication.location-labels: [“host”]

pd_servers:

  • host: 192.168.30.210

tidb_servers:

  • host: 192.168.30.210
    port: 3306
    status_port: 10081
    numa_node: “0”

tikv_servers:

  • host: 192.168.30.210
    port: 20161
    status_port: 20181
    numa_node: “0”
    config:
    server.labels: { host: “192.168.30.210”}
  • host: 192.168.30.210
    port: 20162
    status_port: 20182
    numa_node: “1”
    config:
    server.labels: { host: “192.168.30.210”}

tiflash_servers:

  • host: 192.168.30.210
    data_dir: /data/tidb-data/tiflash-9000
    deploy_dir: /data/tidb-deploy/tiflash-9000

monitoring_servers:

  • host: 192.168.30.210

grafana_servers:

  • host: 192.168.30.210

alertmanager_servers:

  • host: 192.168.30.210
    web_port: 19093
    cluster_port: 19094

【资源配置】未安装成功

有没有大佬帮忙看看,是不是部署脚本有问题?

要么配置下,要么删掉,不要给空。

1 个赞

我试试,多谢

这个怎么没配置。。。。 不要光写配置,不写 value

出问题的是tikv,可以看到多了config,要么配置参数,要么去掉

不能SSH到另一台主机吧。

这个按文档再检查一下

不是参数问题,别看配置文件了,就是ssh连不上,最常见的问题是密码不对

ssh免密配置、防火墙关一下

看报错原因,“invalid auto generate configuration file”是无法正确提取 TiKV 相关的配置参数,出现了文件格式相关的问题。

server_configs:
tikv:
readpool.unified.max-thread-count:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
storage.block-cache.capacity: “”
raftstore.capacity: “”

上面的配置有几项内容是空的,可能有问题,改为下面的内容试试看

server_configs:
tikv:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
1 个赞

storage.block-cache.capacity: “”
raftstore.capacity: “”
这俩删掉先

这两个是数值带单位的,如果不需要就不要设置,可以删掉。

storage.block-cache

RocksDB 多个 CF 之间共享 block cache 的配置选项。

capacity

  • 共享 block cache 的大小。
  • 默认值:
    • storage.engine="raft-kv" 时,默认值为系统总内存大小的 45%。
    • storage.engine="partitioned-raft-kv" 时,默认值为系统总内存大小的 30%。
  • 单位:KB|MB|GB

capacity

  • 存储容量,即允许的最大数据存储大小。如果没有设置,则使用当前磁盘容量。如果要将多个 TiKV 实例部署在同一块物理磁盘上,需要在 TiKV 配置中添加该参数,参见混合部署的关键参数介绍
  • 默认值:0
  • 单位:KB|MB|GB
1 个赞

tikv 要么单节点,要么三节点,最好奇数,不然会启不动的… :rofl:

是因为选不出leader么?呵呵

raft 多数派的要求… 达不到…

tikv不存在leader选举,PD是leader选举。 :yum:

感觉象是配置项值缺失