【 TiDB 使用环境】生产环境
【 TiDB 版本】7.5
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
tikv有四台机器,目前磁盘使用率已达85%,开始报警
其中三台是用了数据盘,可以无限扩容,但是还有台直接在系统盘根目录部署,系统盘无法再扩容,最大2TB,请问这种情况怎么处理?
【 TiDB 使用环境】生产环境
【 TiDB 版本】7.5
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
tikv有四台机器,目前磁盘使用率已达85%,开始报警
其中三台是用了数据盘,可以无限扩容,但是还有台直接在系统盘根目录部署,系统盘无法再扩容,最大2TB,请问这种情况怎么处理?
我理解的场景 tikv1,2,3 用的是挂载磁盘(类似 lvm),tikv4 用的是本地磁盘(不具备扩容条件)
这种场景比较有效的是,对 tikv 1,2,3 进行 lvm 的物理扩容(先让 tikv 4 的数据有地儿放),然后对 tikv4 缩容,缩容后把数据盘挂载到 tikv4 上,最后再 scale-out tikv4 即可
缩容tikv4,磁盘扩容,改路径再扩容tikv4
求问大佬,只能软连接吗,不能直接复制文件然后改数据存放目录吗
那我再扩容一个节点,数据同步后,在把那个节点删除,这个节点删除要在管理后台操作把,部署至今有2年多了没动过,都忘了怎么扩容了
tiup scale-in 缩容就行
数据在本地盘的,可以缩容掉。若想还保证4个kv实例,可以再扩容。 4个kv。也可以先扩容,再缩掉那个本地盘kv
先增加一个新的tikv节点,成功后在系统盘根目录部署的那台机器进行缩容即可
可以扩容新节点进去
建议把每个节点目录大小调成一致
缩容那台布署错的,换个数据目录扩容
新加节点,或者操作系统扩容文件系统
可以尝试添加tikv节点试试。
蹲回复
重新扩容一下就好了
先扩容一个新的4节点 再把123节点依次缩容扩容加入
做LVM逻辑卷,这样好扩容
迁移到其他节点吧
扩容了新节点,目前在同步数据,总共1.8T数据,好像同步很慢