title | summary | aliases | ||||
---|---|---|---|---|---|---|
使用 Dumpling 导出数据 |
使用 Dumpling 从 TiDB 导出数据。 |
|
使用数据导出工具 Dumpling,你可以把存储在 TiDB 或 MySQL 中的数据导出为 SQL 或 CSV 格式,用于逻辑全量备份。Dumpling 也支持将数据导出到 Amazon S3 中。
要快速了解 Dumpling 的基本功能,建议先观看下面的培训视频(时长 28 分钟)。注意本视频只作为功能介绍、学习参考,具体操作步骤和最新功能,请以文档内容为准。
你可以通过下列任意方式获取 Dumpling:
- TiUP 执行
tiup install dumpling
命令。获取后,使用tiup dumpling ...
命令运行 Dumpling。 - 下载包含 Dumpling 的 tidb-toolkit 安装包。
更多详情,可以使用 --help 选项查看,或参考 Dumpling 主要选项表。
使用 Dumpling 时,需要在已经启动的集群上执行导出命令。
TiDB 还提供了其他工具,你可以根据需要选择使用:
- 如果需要直接备份 SST 文件(键值对),或者对延迟不敏感的增量备份,请使用备份工具 BR。
- 如果需要实时的增量备份,请使用 TiCDC。
- 所有的导出数据都可以用 TiDB Lightning 导回到 TiDB。
注意:
PingCAP 之前维护的 Mydumper 工具 fork 自 mydumper project,针对 TiDB 的特性进行了优化。从 v7.5.0 开始,Mydumper 废弃,其绝大部分功能已经被 Dumpling 取代,强烈建议切换到 Dumpling。
Dumpling 具有以下优势:
- 支持导出多种数据形式,包括 SQL/CSV。
- 支持全新的 table-filter,筛选数据更加方便。
- 支持导出到 Amazon S3 云盘。
- 针对 TiDB 进行了更多优化:
- 支持配置 TiDB 单条 SQL 内存限制。
- 针对 TiDB v4.0.0 及更新版本,如果 Dumpling 能够访问 TiDB 集群的 PD 地址以及
INFORMATION_SCHEMA.CLUSTER_INFO
表,则支持自动调整 GC 的 safe point 从而阻塞 GC。 - 使用 TiDB 的隐藏列
_tidb_rowid
优化了单表内数据的并发导出性能。 - 对于 TiDB 可以设置 tidb_snapshot 的值指定备份数据的时间点,从而保证备份的一致性,而不是通过
FLUSH TABLES WITH READ LOCK
来保证备份一致性。
注意:
在以下情况下,Dumpling 无法连接到 PD:
- TiDB 集群正在 Kubernetes 上运行(Dumpling 本身在 Kubernetes 环境中运行时除外)。
- TiDB 集群正在 TiDB Cloud 上运行。
在这种情况下,你需要手动调整 TiDB GC 时间,以避免导出失败。
- PROCESS:需要该权限用于查询集群信息以获取 PD 地址,从而通过 PD 控制 GC。
- SELECT:导出目标表时需要。
- RELOAD:使用 consistency flush 时需要。注意,只有 TiDB 支持该权限,当上游为 RDS 或采用托管服务时,可忽略该权限。
- LOCK TABLES:使用 consistency lock 时需要,需要导出的库表都有该权限。
- REPLICATION CLIENT:导出 metadata 记录数据快照点时需要,可选,如果不需要导出 metadata,可忽略该权限。
本文假设在 127.0.0.1:4000
有一个 TiDB 实例,并且这个 TiDB 实例中有无密码的 root 用户。
Dumpling 默认导出数据格式为 SQL 文件。也可以通过设置 --filetype sql
导出数据到 SQL 文件:
{{< copyable "shell-regular" >}}
tiup dumpling -u root -P 4000 -h 127.0.0.1 --filetype sql -t 8 -o /tmp/test -r 200000 -F 256MiB
以上命令中:
-h
、-P
、-u
分别代表地址、端口、用户。如果需要密码验证,可以使用-p $YOUR_SECRET_PASSWORD
将密码传给 Dumpling。-o
(或--output
)用于选择存储导出文件的目录,支持本地文件的绝对路径或外部存储服务的 URI 格式。-t
用于指定导出的线程数。增加线程数会增加 Dumpling 并发度提高导出速度,但也会加大数据库内存消耗,因此不宜设置过大。一般不超过 64。-r
用于开启表内并发加速导出。默认值是0
,表示不开启。取值大于 0 表示开启,取值是 INT 类型。当数据源为 TiDB 时,设置-r
参数大于 0 表示使用 TiDB region 信息划分区间,同时减少内存使用。具体取值不影响划分算法。对数据源为 MySQL 且表的主键是 INT 的场景,该参数也有表内并发效果。-F
选项用于指定单个文件的最大大小,单位为MiB
,可接受类似5GiB
或8KB
的输入。如果你想使用 TiDB Lightning 将该文件加载到 TiDB 实例中,建议将-F
选项的值保持在 256 MiB 或以下。
注意:
如果导出的单表大小超过 10 GB,强烈建议使用
-r
和-F
参数。
本部分介绍 Amazon S3、GCS、和 Azure Blob Storage 存储服务的 URI 格式。基本格式如下:
[scheme]://[host]/[path]?[parameters]
关于 URI 格式的详细信息,请参考外部存储服务的 URI 格式。
你可以通过使用 --filetype csv
导出数据到 CSV 文件。
当你导出 CSV 文件时,你可以使用 --sql <SQL>
导出指定 SQL 选择出来的记录。例如,导出 test.sbtest1
中所有 id < 100
的记录:
{{< copyable "shell-regular" >}}
tiup dumpling -u root -P 4000 -h 127.0.0.1 -o /tmp/test --filetype csv --sql 'select * from `test`.`sbtest1` where id < 100' -F 100MiB --output-filename-template 'test.sbtest1.{{.Index}}'
以上命令中:
--sql
选项仅仅可用于导出 CSV 文件的场景。上述命令将在要导出的所有表上执行SELECT * FROM <table-name> WHERE id < 100
语句。如果部分表没有指定的字段,那么导出会失败。- 使用
--sql
配置导出时,Dumpling 无法获知导出的表库信息,此时可以使用--output-filename-template
选项来指定 CSV 文件的文件名格式,以方便后续使用 TiDB Lightning 导入数据文件。例如--output-filename-template='test.sbtest1.{{.Index}}'
指定导出的 CSV 文件为test.sbtest1.000000000
、test.sbtest1.000000001
等。 - 你可以使用
--csv-separator
、--csv-delimiter
等选项,配置 CSV 文件的格式。具体信息可查阅 Dumpling 主要选项表。
注意:
Dumpling 导出不区分字符串与关键字。如果导入的数据是 Boolean 类型的
true
和false
,导出时会被转换为1
和0
。
你可以使用 --compress <format>
压缩导出的 CSV、SQL 数据与表结构文件。该参数支持 gzip
、snappy
、zstd
压缩算法。默认不压缩。
- 该选项只能压缩单个数据与表结构文件,无法直接压缩整个文件夹生成单个压缩集合包。
- 该选项可以节省磁盘空间,但也会导致导出速度变慢,并增加 CPU 消耗。对导出速度要求较高的场景需慎用。
- TiDB Lightning v6.5.0 及以上版本支持直接使用 Dumpling 压缩文件作为数据源导入,无需额外配置。
注意:
Snappy 压缩文件必须遵循官方 Snappy 格式。不支持其他非官方压缩格式。
-
metadata
:此文件包含导出的起始时间,以及 master binary log 的位置。{{< copyable "shell-regular" >}}
cat metadata
Started dump at: 2020-11-10 10:40:19 SHOW MASTER STATUS: Log: tidb-binlog Pos: 420747102018863124 Finished dump at: 2020-11-10 10:40:20
-
{schema}-schema-create.sql
:创建 schema 的 SQL 文件。{{< copyable "shell-regular" >}}
cat test-schema-create.sql
CREATE DATABASE `test` /*!40100 DEFAULT CHARACTER SET utf8mb4 */;
-
{schema}.{table}-schema.sql
:创建 table 的 SQL 文件{{< copyable "shell-regular" >}}
cat test.t1-schema.sql
CREATE TABLE `t1` ( `id` int(11) DEFAULT NULL ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;
-
{schema}.{table}.{0001}.{sql|csv}
:数据源文件{{< copyable "shell-regular" >}}
cat test.t1.0.sql
/*!40101 SET NAMES binary*/; INSERT INTO `t1` VALUES (1);
-
*-schema-view.sql
、*-schema-trigger.sql
、*-schema-post.sql
:其他导出文件
Dumpling 在 v4.0.8 及更新版本支持导出到 Amazon S3 云盘。如果需要将数据备份到 Amazon S3 后端存储,那么需要在 -o
参数中指定 Amazon S3 的存储路径。
可以参照 AWS 官方文档 - 如何创建 S3 存储桶在指定的 Region
区域中创建一个 S3 桶 Bucket
。如有需要,还可以参照 AWS 官方文档 - 创建文件夹在 Bucket 中创建一个文件夹 Folder
。
将有权限访问该 Amazon S3 后端存储的账号的 SecretKey
和 AccessKey
作为环境变量传入 Dumpling 节点。
{{< copyable "shell-regular" >}}
export AWS_ACCESS_KEY_ID=${AccessKey}
export AWS_SECRET_ACCESS_KEY=${SecretKey}
Dumpling 同时还支持从 ~/.aws/credentials
读取凭证文件。更多参数描述,请参考外部存储服务的 URI 格式。
{{< copyable "shell-regular" >}}
tiup dumpling -u root -P 4000 -h 127.0.0.1 -r 200000 -o "s3://${Bucket}/${Folder}"
默认情况下,Dumpling 会导出排除系统数据库(包括 mysql
、sys
、INFORMATION_SCHEMA
、PERFORMANCE_SCHEMA
、METRICS_SCHEMA
和 INSPECTION_SCHEMA
)外所有其他数据库。你可以使用 --where <SQL where expression>
来指定要导出的记录。
{{< copyable "shell-regular" >}}
tiup dumpling -u root -P 4000 -h 127.0.0.1 -o /tmp/test --where "id < 100"
上述命令将会导出各个表的 id < 100 的数据。注意 --where
参数无法与 --sql
一起使用。
Dumpling 可以通过 --filter
指定 table-filter 来筛选特定的库表。table-filter 的语法与 .gitignore
相似,详细语法参考表库过滤。
{{< copyable "shell-regular" >}}
tiup dumpling -u root -P 4000 -h 127.0.0.1 -o /tmp/test -r 200000 --filter "employees.*" --filter "*.WorkOrder"
上述命令将会导出 employees
数据库的所有表,以及所有数据库中的 WorkOrder
表。
Dumpling 也可以通过 -B
或 -T
选项导出特定的数据库/数据表。
注意:
--filter
选项与-T
选项不可同时使用。-T
选项只能接受完整的库名.表名
形式,不支持只指定表名。例:Dumpling 无法识别-T WorkOrder
。
例如通过指定:
-B employees
导出employees
数据库-T employees.WorkOrder
导出employees.WorkOrder
数据表
默认情况下,导出的文件会存储到 ./export-<current local time>
目录下。常用选项如下:
-t
用于指定导出的线程数。增加线程数会增加 Dumpling 并发度提高导出速度,但也会加大数据库内存消耗,因此不宜设置过大。-r
选项用于指定单个文件的最大记录数,或者说,数据库中的行数。开启后 Dumpling 会开启表内并发,提高导出大表的速度。当上游为 TiDB 且版本为 v3.0 或更新版本时,设置-r
参数大于 0 表示使用 TiDB region 信息划分表内并发,具体取值不影响划分算法。对上游为 MySQL 且表的主键是 int 的场景,该参数也有表内并发效果。--compress <format>
选项可以用于压缩导出的数据,支持gzip
、snappy
、zstd
压缩算法。压缩可以显著降低导出数据的大小,同时如果存储的写入 I/O 带宽不足,可以使用该选项来加速导出。但该选项也有副作用,由于该选项会对每个文件单独压缩,因此会增加 CPU 消耗。
利用以上选项可以提高 Dumpling 的导出速度。
注意:
数据一致性选项的默认值为
auto
。在大多数场景下,你不需要调整该选项。
Dumpling 通过 --consistency <consistency level>
标志控制导出数据“一致性保证”的方式。在使用 snapshot 来保证一致性的时候,可以使用 --snapshot
选项指定要备份的时间戳。还可以使用以下的一致性级别:
flush
:使用FLUSH TABLES WITH READ LOCK
短暂地中断备份库的 DML 和 DDL 操作、保证备份连接的全局一致性和记录 POS 信息。所有的备份连接启动事务后释放该锁。推荐在业务低峰或者 MySQL 备份库上进行全量备份。snapshot
:获取指定时间戳的一致性快照并导出。lock
:为待导出的所有表上读锁。none
:不做任何一致性保证。auto
:对 MySQL 使用flush
,对 TiDB 使用snapshot
。
操作完成之后,你可以在 /tmp/test
查看导出的文件:
$ ls -lh /tmp/test | awk '{print $5 "\t" $9}'
140B metadata
66B test-schema-create.sql
300B test.sbtest1-schema.sql
190K test.sbtest1.0.sql
300B test.sbtest2-schema.sql
190K test.sbtest2.0.sql
300B test.sbtest3-schema.sql
190K test.sbtest3.0.sql
Dumpling 可以通过 --snapshot
指定导出某个 tidb_snapshot 的数据。
--snapshot
选项可设为 TSO(SHOW MASTER STATUS
输出的 Position
字段)或有效的 datetime
时间(YYYY-MM-DD hh:mm:ss
形式),例如:
{{< copyable "shell-regular" >}}
tiup dumpling --snapshot 417773951312461825
tiup dumpling --snapshot "2020-07-02 17:12:45"
即可导出 TSO 为 417773951312461825
或 2020-07-02 17:12:45
时的 TiDB 历史数据快照。
Dumpling 导出 TiDB 较大单表(超过 1 TB)时,可能会因为导出数据过大导致 TiDB 内存溢出 (OOM),从而使连接中断导出失败。可以通过以下参数减少 TiDB 的内存使用。
- 设置
-r
参数,可以划分导出数据区块减少 TiDB 扫描数据的内存开销,同时也可开启表内并发提高导出效率。当上游为 TiDB 且版本为 v3.0 或更新版本时,设置-r
参数大于 0 表示使用 TiDB region 信息划分表内并发,具体取值不影响划分算法。 - 调小
--tidb-mem-quota-query
参数到8589934592
(8GB) 或更小。可控制 TiDB 单条查询语句的内存使用。 - 调整
--params "tidb_distsql_scan_concurrency=5"
参数,即设置导出时的 session 变量tidb_distsql_scan_concurrency
从而减少 TiDB scan 操作的并发度。
当导出的数据量少于 1 TB,导出的 TiDB 版本为 v4.0.0 或更新版本,且 Dumpling 可以访问 TiDB 集群的 PD 地址以及 INFORMATION_SCHEMA.CLUSTER_INFO
表时,Dumpling 会自动调整 GC 的 safe point 从而阻塞 GC 且不会对原集群造成影响。
但是,在以下场景中,Dumpling 无法自动调整 GC 时间:
- 数据量非常大(超过 1 TB)。
- Dumpling 无法直接连接到 PD,例如 TiDB 集群运行在 TiDB Cloud 上,或者 TiDB 集群运行在 Kubernetes 上且与 Dumpling 分离。
在这些场景中,你必须提前手动调长 GC 时间,以避免因为导出过程中发生 GC 导致导出失败。
使用以下 SQL 语句手动调整 GC 时间:
SET GLOBAL tidb_gc_life_time = '720h';
在 Dumpling 退出后,无论导出是否成功,都必须将 GC 时间恢复为其原始值(默认值为 10m
)。
SET GLOBAL tidb_gc_life_time = '10m';
主要选项 | 用途 | 默认值 |
---|---|---|
-V 或 --version | 输出 Dumpling 版本并直接退出 | |
-B 或 --database | 导出指定数据库 | |
-T 或 --tables-list | 导出指定数据表 | |
-f 或 --filter | 导出能匹配模式的表,语法可参考 table-filter | [\*.\*,!/^(mysql|sys|INFORMATION_SCHEMA|PERFORMANCE_SCHEMA|METRICS_SCHEMA|INSPECTION_SCHEMA)$/.\*] (导出除系统库外的所有库表) |
--case-sensitive | table-filter 是否大小写敏感 | false,大小写不敏感 |
-h 或 --host | 连接的数据库主机的地址 | "127.0.0.1" |
-t 或 --threads | 备份并发线程数 | 4 |
-r 或 --rows | 用于开启表内并发加速导出。默认值是 0 ,表示不开启。取值大于 0 表示开启,取值是 INT 类型。当数据源为 TiDB 时,设置 -r 参数大于 0 表示使用 TiDB region 信息划分区间,同时减少内存使用。具体取值不影响划分算法。对数据源为 MySQL 且表的主键是 INT 的场景,该参数也有表内并发效果。 |
|
-L 或 --logfile | 日志输出地址,为空时会输出到控制台 | "" |
--loglevel | 日志级别 {debug,info,warn,error,dpanic,panic,fatal} | "info" |
--logfmt | 日志输出格式 {text,json} | "text" |
-d 或 --no-data | 不导出数据,适用于只导出 schema 场景 | |
--no-header | 导出 csv 格式的 table 数据,不生成 header | |
-W 或 --no-views | 不导出 view | true |
-m 或 --no-schemas | 不导出 schema,只导出数据 | |
-s 或--statement-size | 控制 INSERT SQL 语句的大小,单位 bytes |
|
-F 或 --filesize | 将 table 数据划分出来的文件大小,需指明单位(如 128B , 64KiB , 32MiB , 1.5GiB ) |
|
--filetype | 导出文件类型(csv/sql) | "sql" |
-o 或 --output | 导出本地文件的绝对路径或外部存储服务的 URI 格式 | "./export-${time}" |
-S 或 --sql | 根据指定的 sql 导出数据,该选项不支持并发导出 | |
--consistency | flush: dump 前用 FTWRL snapshot: 通过 TSO 来指定 dump 某个快照时间点的 TiDB 数据 lock: 对需要 dump 的所有表执行 lock tables read 命令 none: 不加锁 dump,无法保证一致性 auto: 对 MySQL 使用 --consistency flush;对 TiDB 使用 --consistency snapshot |
"auto" |
--snapshot | snapshot tso,只在 consistency=snapshot 下生效 | |
--where | 对备份的数据表通过 where 条件指定范围 | |
-p 或 --password | 连接的数据库主机的密码 | |
-P 或 --port | 连接的数据库主机的端口 | 4000 |
-u 或 --user | 连接的数据库主机的用户名 | "root" |
--dump-empty-database | 导出空数据库的建库语句 | true |
--ca | 用于 TLS 连接的 certificate authority 文件的地址 | |
--cert | 用于 TLS 连接的 client certificate 文件的地址 | |
--key | 用于 TLS 连接的 client private key 文件的地址 | |
--csv-delimiter | CSV 文件中字符类型变量的定界符 | '"' |
--csv-separator | CSV 文件中各值的分隔符,如果数据中可能有逗号,建议源文件导出时分隔符使用非常见组合字符 | ',' |
--csv-null-value | CSV 文件空值的表示 | "\N" |
--csv-line-terminator | CSV 文件中表示行尾的换行符。将数据导出为 CSV 文件时,可以通过该选项传入所需的换行符。该选项支持 "\r\n" 和 "\n",默认值为 "\r\n",和历史版本保持一致。由于 bash 中不同的引号会应用不同的转义规则,如需指定 LF 为换行符,可使用类似 --csv-line-terminator $'\n' 的语法。 |
"\r\n" |
--csv-output-dialect | 表示可以将源数据导出成数据库所需的格式存储到 CSV。该选项取值可为 "" ,"snowflake" 、"redshift" 、"bigquery" 。默认值为 "" ,表示会按 UTF-8 进行编码并导出数据。如果设置为 "snowflake" 或 "redshift" ,会把 Binary 数据类型转换成十六进制,但会丢失十六进制数的前缀 0x ,例如 0x61 将被表示成 61 。如果设置为 "bigquery" ,会使用 base64 对 Binary 数据类型进行编码。在某些情况下,Binary 字符串会出现乱码。 |
"" |
--escape-backslash | 使用反斜杠 (\ ) 来转义导出文件中的特殊字符 |
true |
--output-filename-template | 以 golang template 格式表示的数据文件名格式 支持 {{.DB}} 、{{.Table}} 、{{.Index}} 三个参数 分别表示数据文件的库名、表名、分块 ID |
'{{.DB}}.{{.Table}}.{{.Index}}' |
--status-addr | Dumpling 的服务地址,包含了 Prometheus 拉取 metrics 信息及 pprof 调试的地址 | ":8281" |
--tidb-mem-quota-query | 单条 dumpling 命令导出 SQL 语句的内存限制,单位为 byte。对于 v4.0.10 或以上版本,若不设置该参数,默认使用 TiDB 中的 mem-quota-query 配置项值作为内存限制值。对于 v4.0.10 以下版本,该参数值默认为 32 GB |
34359738368 |
--params | 为需导出的数据库连接指定 session 变量,可接受的格式: "character_set_client=latin1,character_set_connection=latin1" | |
-c 或 --compress | 压缩 Dumpling 导出的 CSV、SQL 数据与表结构文件为指定格式,支持 "gzip"、"snappy" 和 "zstd" 压缩算法 | "" |