AskTUG Weekly (20190902-20190908)

问答

Q1: 【TiDB】我们在将 MySQL 的历史数据同步到 TiDB,一般会使用 MyDumper 将 MySQL 的历史数据导出,然后使用 Loader 将数据导入到 TiDB 中,现有如下需求 MySQL 数据库 A 和数据库 B 中的所有表的历史数据如何同步到 TiDB 的数据库 A 中去,这个应该怎么操作呢?貌似 Loader 不支持在导入 MySQL 数据库中的数据到 TiDB 时重新制定数据库名的。详情查看:MySQL 数据库 A 和数据库 B 中的所有表的历史数据如何同步到 TiDB 的数据库 A 中?

Q2: 【TiDB】连的同一个 TiDB Server , 每次执行同一个查询语句,响应时间相差比较大,请教一下是什么地方遇到了瓶颈?详情查看:同一个查询语句,每次执行时间差异较大

Q3:【TiKV】扩容了 2 台 TiKV,扩容后数据没有自动均衡,目前两个 TiKV 的 Store 数量还是 0。详情查看:TiKV 扩容成功后,几天后没有自动均衡数据

Q4:【TiDB】TiDB集群从 v2.1.14 升级到 v3.0.3,发现 Grafana 监控面板中有关 TiKV 的dashboard 不显示数据、pd-ctl 管理工具无法使用交换模式只能使用单命令模式等问题。详情查看:TiDB 升级到 v3.0.3 后发现的一些问题

Q5: 【PD】在扩容节点的时候,防火墙处于关闭状态。但是启动的时候,一直在获取访问本节点信息,publish error。详情查看:扩容PD节点出错,超时

Q6:【DM】执行增量同步时,经常出现 invalid connection,多次出现报错 grpc: received message larger than max,请问主要是什么原因造成的,如何解决?详情查看:Task 增量任务异常报错

Q7: 【TiDB】再测试机使用 docker-compose 安装,再执行 ``` cd tidb-docker-compose && docker-compose pull 报错。详情查看:使用 Docker-Compose 安装 TiDB 报错

Q8:【Ansible】按照官方文档 Ansible 集群部署,在执行启动命令报错:

详情查看:Ansible部署,启动程序报错

Q9:【TiKV】导入数据之后,TiKV 5 个节点只有三个节点有 Region 分布,其他两个节点没有; 后继续导入数据,在晚间没 Region 的节点曾经出现过 500 多个 Region, 但第二天早上看又全部转移到另外三个节点上去了。详情查看:TiKV 节点 Region 分布不均

Q10:【TiDB】搭建了多套 TiDB 集群,发现有个共性问题就是执行建表语句比较慢,一般在 1.5-2 秒左右,当某个 database 中表的数量较多时,在该 database 下建表需要 5 秒,这个速度在某些场景下会影响业务。详情查看:执行建表语句较慢(且表数量越多越慢)

文章

高并发批量插入场景,通常存在于业务系统中的批量任务中,例如清算以及结算等业务。它存在数据量大、需要短时间内将历史数据入库、需要短时间内读取大量数据等显著的特点,这就对 TiDB 提出了一些挑战:写入/读取能力是否可以线性水平扩展,数据在持续大并发写入,性能是否稳定不衰减。对于分布式数据库来说,除了本身的基础性能之外,最重要的就是充分利用所有节点能力,避免出现单个节点成为瓶颈。查看 TiDB 高并发写入常见热点问题及规避方法

在 8 月份 TUG 北京线下活动 “走进转转” 中,转转集团首席架构师孙玄为大家介绍了转转数据库架构构建之道。同时,转转数据库负责人冀浩东为大家分享了 TiDB 在转转的标准化之路,介绍了转转引入 TiDB 主要解决的问题,大规模线上应用遇到的问题,以及 TiDB 集群标准化和未来展望。转转基础架构部负责人陈东则和大家分享了业务开发对 TiDB 的使用心得

活动回顾

上海 TUG 的第一次线下活动于 8 月 31 日在 UCloud 成功举办。本次活动的主题是“ TiDB + Cloud”,活动邀请了来自 UCloud 的资深研发工程师常彦德老师、上海 TUG Co-Leader 王志广老师以及 PingCAP 的 Cloud 工程师付业成老师,他们从TiDB 在 UCloud 公有云上的实践、TiDB 私有云实践及 TiDB 基于 Kubernetes 本地存储实践等方面分享了多种围绕“云”的实践。查看上海 TUG 线下活动 “TiDB + Cloud” 活动回顾


相关阅读:

AskTUG Weekly (20190826-20190901)

1赞

感谢章鱼小丸子

:grin::grin::grin: