做个伸手党:谁能赐我一个tiup的有效配置示例

混合部署,按numa 绑核。
3台机器,一台机器分为4个node,每个node部署一个组件,tidb pd tikv 多个。来个示例。

再咨询下,tiup本身跑着一套tidb。我想扩容到新的拓扑文件。怎么搞?tiup命令不熟悉。

比如说原来一个机器配置了一个tikv,我想一个机器配置成3个tikv。其中第一个tikv端口和目录都没变。其他的新加的。
是改动topoloy.yaml然后执行什么命令直接扩出来?最快的办法

可以停机。

# Global variables are applied to all deployments and used as the default value of

# the deployments if a specific deployment value is missing.

global:
user: “tidb”
ssh_port: 22
deploy_dir: “/tidb-deploy”
data_dir: “/tidb-data”

# Monitored variables are applied to all the machines.

monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115

server_configs:
tidb:
instance.tidb_slow_log_threshold: 300
tikv:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
pd:
replication.enable-placement-rules: true
replication.location-labels: [“host”]
tiflash:
logger.level: “info”

pd_servers:

  • host: 192.168.25.129

tidb_servers:

  • host: 192.168.25.129

tikv_servers:

  • host: 192.168.25.129
    port: 20160
    status_port: 20180
    config:
    server.labels: { host: “logic-host-1” }

  • host: 192.168.25.129
    port: 20161
    status_port: 20181
    config:
    server.labels: { host: “logic-host-2” }

  • host: 192.168.25.129
    port: 20162
    status_port: 20182
    config:
    server.labels: { host: “logic-host-3” }

tiflash_servers:

  • host: 192.168.25.129

monitoring_servers:

  • host: 192.168.25.129

grafana_servers:

  • host: 192.168.25.129

tiup cluster scale-out 命令用于集群扩容,扩容的内部逻辑与部署类似,tiup-cluster 组件会先建立新节点的 SSH 连接,在目标节点上创建必要的目录,然后执行部署并且启动服务。其中 PD 节点的扩容会通过 join 方式加入到集群中,并且会更新与 PD 有关联的服务的配置;其他服务直接启动加入到集群中。

语法

tiup cluster scale-out <cluster-name> <topology.yaml> [flags]
  • <cluster-name> 为要操作的集群名字,如果忘记集群名字可通过集群列表查看
  • <topology.yaml> 为事先编写好的扩容拓扑文件,该文件应当仅包含扩容部分的拓扑

选项

-u, --user(string,默认为当前执行命令的用户)

指定连接目标机器的用户名,该用户在目标机器上需要有免密 sudo root 的权限。

-i, --identity_file(string,默认 ~/.ssh/id_rsa)

指定连接目标机器的密钥文件。

-p, --password

  • 在连接目标机器时使用密码登录,不可和 -i/--identity_file 同时使用。
  • 数据类型:BOOLEAN
  • 该选项默认关闭,默认值为 false。在命令中添加该选项,并传入 true 值或不传值,均可开启此功能。

–no-labels

  • 当两个或多个 TiKV 部署到同一台机器时,会存在一个风险:由于 PD 无法感知集群的拓扑结构,可能将一个 Region 的多个副本调度到一台物理机上的不同 TiKV,这样这台物理机就成为了单点。为了避免这种情况,用户可以通过 label 来指定 PD 不要将相同的 Region 调度到同一台机器上(配置方式参考通过拓扑 label 进行副本调度)。
  • 数据类型:BOOLEAN
  • 该选项默认关闭,默认值为 false。在命令中添加该选项,并传入 true 值或不传值,均可开启此功能。

但是对于测试环境,可能并不在意是否将一个 Region 的副本调度到了同一台机器上,这个时候可以使用 --no-labels 来绕过检查。

–skip-create-user

在扩容集群时,tiup-cluster 会先检查拓扑文件中指定的用户名是否存在,如果不存在就会创建一个。指定 --skip-create-user 选项后不再检查用户是否存在,直接跳过创建步骤。

-h, --help

  • 输出帮助信息。
  • 数据类型:BOOLEAN
  • 该选项默认关闭,默认值为 false。在命令中添加该选项,并传入 true 值或不传值,均可开启此功能。
1 个赞

使用 TiUP 扩容缩容 TiDB 集群 | PingCAP 文档中心,先扩容,在把不要的缩容,tikv的扩容缩容需要点时间

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。