使用tiup cluster最小化部署的集群扩容后无法缩容

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
新手使用扩缩容操作,前置条件是已使用tiup cluster部署了最小化的集群(pd、db、kv都只有一个实例),如下截图


在此基础上执行扩容操作,扩容对象对kv,yaml配置如下
image
执行tiup cluster scale-out命令报错,但成功将kv进行了扩容。
执行后状态如下图

报错如下图

猜测原因:是因为我扩容的实例也部署在主控节点,所以那两组件已经运行过了,无法再次启动,实际看进程也确实存在,望大佬指正是否这个原因。
以下才进入本贴求助的正文,在此基础上进行缩容操作却报错了,如下所示

错误提示也很直观,至少需要3个实例,但现在只有2个,不允许缩容,虽能理解但有点奇怪,就这种情况能解决吗?

先把副本数改为1,然后再缩容,应该就可以了。


https://docs.pingcap.com/zh/tidb/v8.2/pd-configuration-file#max-replicas

可以在线修改, set config pd replication.max-replicas=1
https://docs.pingcap.com/zh/tidb/v8.2/dynamic-config#在线修改-pd-配置

正准备问您,出了在SQL环境下在线修改,直接修改配置的话,这些个个配置文件都在哪呢?文档只有各个配置的说明,没有找到配置文件的路径和修改后的应用方法

修改配置文件,一般是通过tiup去修改的。
https://docs.pingcap.com/zh/tidb/v8.2/maintain-tidb-using-tiup#修改配置参数

这是在做练习吗

使用edit-config编辑报错,不确定是否位置没加对
配置如下
image
报错如下

是的,先本地搭建集群测试下

写串行了
image

:joy:写串行了,另外配置之后要reload生效

https://docs.pingcap.com/zh/tidb/v7.5/dynamic-config#在线修改-pd-配置
在线修改就行,replication.max-replicas 用于设置副本的数量,改成2,就可以缩容一个

剩2个kv,就改为1,再缩第二个

哎呀,实在不好意思,看配置看岔了。刚刚已经正确添加了配置
image
并且按提示执行了reload


结果也成功了的
image
但是执行缩容命令仍然报同样的错

:joy:

SHOW config WHERE TYPE=‘pd’ AND NAME LIKE ‘%replication.max-replicas%’;
先执行上面命令看下,不是1的话,用下面命令改成1
SET config pd replication.max-replicas=1;