tidb模块迁移到其他机器

【TiDB 版本】
TiDB Version: v4.0.0
1、tidb模块是单独的两台机器
2、三台机器部署了(tikv\tiflash\pump\prometheus\pd\grafana\alertmanager)这些模块怎么无缝迁移到三台新的机器上呢?
谢谢

1 个赞

您的无缝迁移是指的不停止应用在线迁移吗?
如果是的话,您可以考虑在线扩缩容的方式。
比如说扩容一个 tikv 到新的机器上,leader 迁移结束后,缩容一个旧的 tikv。
反复执行可以做到在线迁移机器。

prometheus\grafana\alertmanager 这个监控monitor模块怎么迁移呢?

可以重新部署一套监控,原来的监控数据通过 prometheus 的导入导出工具迁移到新的集群中。
prometheus 的导入导出工具可以参考 prometheus 官方文档。

重新部署的时候报错,帮看看看咋回事,谢谢
1、tiup cluster scale-out tidb-sync-ali topology.yaml
#topology.yaml 文件信息
monitoring_servers:

  • host: 10.129.3.242

grafana_servers:

  • host: 10.129.3.242

alertmanager_servers:

  • host: 10.129.3.242
    2、tiup cluster display tidb-sync-ali
    Found cluster newer version:

    The latest version: v1.5.2
    Local installed version: v1.0.7
    Update current component: tiup update cluster
    Update all components: tiup update --all

Starting component cluster: /root/.tiup/components/cluster/v1.0.7/tiup-cluster display tidb-sync-ali
TiDB Cluster: tidb-sync-ali
TiDB Version: v4.0.0
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir


10.129.2.127:9093 alertmanager 10.129.2.127 9093/9094 linux/x86_64 Up /data/tidb-data/alertmanager-9093 /data/tidb-deploy/alertmanager-9093
10.129.2.127:3000 grafana 10.129.2.127 3000 linux/x86_64 Up - /data/tidb-deploy/grafana-3000
10.129.2.126:2379 pd 10.129.2.126 2379/2380 linux/x86_64 Down /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.2.127:2379 pd 10.129.2.127 2379/2380 linux/x86_64 Down /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.2.128:2379 pd 10.129.2.128 2379/2380 linux/x86_64 Down /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.3.241:2379 pd 10.129.3.241 2379/2380 linux/x86_64 Up /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.3.243:2379 pd 10.129.3.243 2379/2380 linux/x86_64 Up /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.4.72:2379 pd 10.129.4.72 2379/2380 linux/x86_64 Up|L|UI /data/tidb-data/pd-2379 /data/tidb-deploy/pd-2379
10.129.2.127:9090 prometheus 10.129.2.127 9090 linux/x86_64 Up /data/tidb-data/prometheus-9090 /data/tidb-deploy/prometheus-9090
10.129.2.126:8250 pump 10.129.2.126 8250 linux/x86_64 Up /data/tidb-data/pump-8250 /data/tidb-deploy/pump-8250
10.129.2.127:8250 pump 10.129.2.127 8250 linux/x86_64 Up /data/tidb-data/pump-8250 /data/tidb-deploy/pump-8250
10.129.2.128:8250 pump 10.129.2.128 8250 linux/x86_64 Up /data/tidb-data/pump-8250 /data/tidb-deploy/pump-8250
10.129.4.73:4000 tidb 10.129.4.73 4000/10080 linux/x86_64 Up - /data/tidb-deploy/tidb-4000
10.129.6.210:4000 tidb 10.129.6.210 4000/10080 linux/x86_64 Up - /data/tidb-deploy/tidb-4000
10.129.2.127:9000 tiflash 10.129.2.127 9000/8123/3930/20170/20292/8234 linux/x86_64 Tombstone /data/tidb-data/tiflash-9000 /data/tidb-deploy/tiflash-9000
10.129.2.126:20160 tikv 10.129.2.126 20160/20180 linux/x86_64 Tombstone /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.129.2.127:20160 tikv 10.129.2.127 20160/20180 linux/x86_64 Tombstone /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.129.2.128:20160 tikv 10.129.2.128 20160/20180 linux/x86_64 Tombstone /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.129.3.242:20160 tikv 10.129.3.242 20160/20180 linux/x86_64 Up /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.129.4.73:20160 tikv 10.129.4.73 20160/20180 linux/x86_64 Up /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
10.129.6.210:20160 tikv 10.129.6.210 20160/20180 linux/x86_64 Up /data/tidb-data/tikv-20160 /data/tidb-deploy/tikv-20160
3、报错日志如下
tiup-cluster-debug-2021-06-24-16-10-52.log (118.0 KB)

重新部署的文件麻烦 topology.yaml 文件给一个全的。
看起来是 tiflash 报错。

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。