dumping在备份文件时候支持加密

机器成本确实都差不多,我其实最主要指的是操作的复杂度。在数据量小的时候,其实直接用IMPORT方式来导入数据,还挺方便的。但是在大数据量(上T,甚至几十T)导入的场景下,lightning导入时候必然会使用很大的CPU和内存,其实非常不适合和存在业务访问的tidb-server放在一起,很容易影响正常的业务请求。在这个前提下,肯定是要使用独立的机器来完成大数据量的导入工作。这里就有以下几个问题:

  1. 如果lightning作为普通的binary时,我只要把二进制文件拷上去就好了,这台机器即便负载很高也不用担心,因为这是正常现象。 其次这台机器还可以用作其它用途,不需要作为tidb集群的一部分。
  2. 而如果是通过扩容tidb-server节点来实现机器的隔离,首先扩容的操作成本就高一些,其次在导入期间,IMPORT节点的CPU和内存负载都会很高,肯定会触发之前集群默认配置的告警规则,现在基本上都是精细化管理,这种告警的解释成本也会增加。
  3. 如果内置为TiDB的一个功能,那其实就是把一个本可以适用于整个MySQL的工具,给缩小成TiDB专用工具,其实和Pingcap的开源理念也不太相符。
    所以感觉,如果不是特别增加了开发难度,建议还是维持现状——IMPORT INTO和Lightning独立部署同时都提供。