MySQL安全批量delete数据行及数据归档(一)大部分场景

前言#

随着业务量的增长,存储在 MySQL 中的数据日益剧增达到千万及上亿数据量,这就导致跟其 Join 的表的 SQL 变得很慢,对应用接口的 response time 也变长了,影响了用户体验。
一般常见增长量巨大的表都是一些记录、日志类型数据,只需要保留 2 到 3 月。此时需要对表做数据清理实现瘦身。那么这么大的数据如何进行删除,而不影响数据库的正常使用呢?

如何进行删除?都有哪些方案?#

根据前辈多年的删表经验来说 (・̀ω・́)✧,删除大量数据时一定要分批缓慢删除,否则很容易阻塞整个表,还有可能因为产生的 binlog 过大让从库原地 GG。

  • 根据前辈多年的删表经验来说 (・̀ω・́)✧,删除大量数据时一定要分批缓慢删除,否则很容易阻塞整个表,还有可能因为产生的 binlog 过大让从库原地 GG。
  • delete * from where create_time <= ? limit ?;
  • 看选用的引擎如果是 innodb,可以缩小范围用主键删除;
    确定删除方案后,我们就可以使用 pt-archiver 进行删除,对没错这个家伙不只可以用个归档,删除数据也是行家。

下面这介绍两种方案,比较有局限性,但对业务可以停的场景有用:
1. mysqldump 备份出来需要的数据,然后 drop table,导入
2. mysqldump 备份出来需要的数据,然后 truncate table,导入
明显都会造成表一段时间的不可用。同时还会引起 IO 飙升的风险
如果这张大表仍然还有被高频的访问,你敢直接 drop table&truncate 那基本上就是茅坑里点灯,找死!具体有哪些风险,等下篇文章进行解读!o (╥﹏╥) o

使用 pt-archiver 进行分批缓慢删除#

pt-archiver 是 Percona-Toolkit 工具集中的一个组件,是一个主要用于对 MySQL 表数据进行归档和清除工具。它可以将数据归档到另一张表或者是一个文件中。pt-archiver 在清除表数据的过程中并不会影响 OLTP 事务的查询性能。对于数据的归档,它可以归档到另一台服务器上的另一张表,也可归档到一个文件中,文件可以用 LOAD DATA INFILE 进行数据装载,这个功能其实就类似是表历史数据的增量删除。#

*pt-archiver * 优势

  1. pt-archiver 是一个十分高效的表数据归档工具,归档数据可以分批进行事务处理,减少性能消耗;
  2. 如果实例开启了 GTID,因为 GTID 不支持 CTAS 创建表的语法,可以使用 pt-archiver 处理;
  3. 对于跨实例或者跨服务器的表数据归档,pt-archiver 可以运行在目标端服务器,因为生成的临时文件是在工具执行所在的服务器。
  4. 对于大表的过期数据的批量删除也可以通过 pt-archiver 指定选项 --purge 进行处理。

    参数介绍#

    删除历史数据主要用到的参数
    ```

–analyze
指定工具完成数据归档后对表执行’ANALYZE TABLE’操作。指定方法如’–analyze=ds’,s 代表源端表,d 代表目标端表,也可以单独指定。

–ask-pass
命令行提示密码输入,保护密码安全,前提需安装模块 perl-TermReadKey。

–buffer
指定缓冲区数据刷新到选项’–file’指定的文件并且在提交时刷新。
只有当事务提交时禁用自动刷新到’–file’指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。

–bulk-delete
指定单个语句删除 chunk 的方式来批量删除行,会隐式执行选项’–commit-each’。
使用单个 DELETE 语句删除每个 chunk 对应的表行,通常的做法是通过主键进行逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的’WHERE’条件就可能会更慢。

–[no]bulk-delete-limit
默认值:yes
指定添加选项’–bulk-delete’和’–limit’到进行归档的语句中。

–bulk-insert
使用 LOAD DATA LOCAL INFILE 的方法,通过批量插入 chunk 的方式来插入行 (隐式指定选项’–bulk-delete’和’–commit-each’)
而不是通过逐行单独插入的方式进行,它比单行执行 INSERT 语句插入的速度要快。通过隐式创建临时表来存储需要批量插入的行 (chunk),而不是直接进行批量插入操作,当临时表中完成每个 chunk 之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用选项’–bulk-delete’,这样能够有效保证删除是在插入完全成功之后进行的。

–channel
指定当主从复制环境是多源复制时需要进行归档哪个主库的数据,适用于多源复制中多个主库对应一个从库的情形。

–charset,-A
指定连接字符集。

–[no]check-charset
默认值:yes
指定检查确保数据库连接时字符集和表字符集相同。

–[no]check-columns
默认值:yes
指定检查确保选项’–source’指定的源端表和’–dest’指定的目标表具有相同的字段。
不检查字段在表的排序和字段类型,只检查字段是否在源端表和目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用该检查,则指定’–no-check-columns’。

–check-slave-lag
指定主从复制延迟大于选项’–max-lag’指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库 (通过 DSN 连接方式)。

–check-interval
默认值:1s
如果同时指定了选项’–check-slave-lag’,则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作 100 行时进行一次检查。

–columns,-c
指定需要归档的表字段,如有多个则用’,’(逗号) 隔开。

–commit-each
指定按每次获取和归档的行数进行提交,该选项会禁用选项’–txn-size’。
在每次获取表数据并进行归档之后,在获取下一次数据和选项’–sleep’指定的休眠时间之前,进行事务提交和刷新选项’–file’指定的文件,通过选项’–limit’控制事务的大小。

–host,-h
指定连接的数据库 IP 地址。

–port,-P
指定连接的数据库 Port 端口。

–user,-u
指定连接的数据库用户。

–password,-p
指定连接的数据库用户密码。

–socket,-S
指定使用 SOCKET 文件连接。

–databases,-d
指定连接的数据库

–source
指定需要进行归档操作的表,该选项是必须指定的选项,使用 DSN 方式表示。

–dest
指定要归档到的目标端表,使用 DSN 方式表示。
如果该选项没有指定的话,则默认与选项’–source’指定源端表为相同表。

–where
指定通过 WHERE 条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上’WHERE’关键字,如果确实不需要 WHERE 条件进行限制,则指定’–where 1=1’。

–file
指定表数据需要归档到的文件。使用类似 MySQL DATE_FORMAT () 格式化命名方式。
文件内容与 MySQL 中 SELECT INTO OUTFILE 语句使用相同的格式,文件命名选项如下所示:

% Y:年,4 位数 (Year, numeric, four digits)
% m:月,2 位数 (Month, numeric (01..12))
% d:日,2 位数 (Day of the month, numeric (01..31))
% H:小时 (Hour (00..23))
% i:分钟 (Minutes, numeric (00..59))
% s:秒 (Seconds (00..59))
% D:数据库名 (Database name)
% t:表名 (Table name)

例如:–file ‘/var/log/archive/% Y-% m-% d-% D.% t’

–output-format
指定选项’–file’文件内容输出的格式。
默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用’,’(逗号) 作为字段分隔符,使用’”‘(双引号) 将字段括起。用法示例:’–output-format=dump’。

–for-update
指定为每次归档执行的 SELECT 语句添加 FOR UPDATE 子句。

–share-lock
指定为每次归档执行的 SELECT 语句添加 LOCK IN SHARE MODE 子句。

–header
指定在文件中第一行写入字段名称作为标题。

–ignore
指定为 INSERT 语句添加 IGNORE 选项。

–limit
默认值:1
指定每条语句获取表和归档表的行数。

–local
指定不将 OPTIMIZE 和 ANALYZE 语句写入 binlog。

–max-lag
默认值:1s
指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项’–check-interval’指定的值。待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的’Seconds_Behind_Master’值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值。

–no-delete
指定不删除已被归档的表数据。

–optimize
指定工具完成数据归档后对表执行’OPTIMIZE TABLE’操作。指定方法如’–analyze=ds’,s 代表源端表,d 代表目标端表,也可以单独指定。

–primary-key-only
指定只归档主键字段,是选项’–columns = 主键’的简写。
如果工具归档的操作是进行 DELETE 清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。

–progress
指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。

–purge
指定执行的清除操作而不是归档操作。允许忽略选项’–dest’和’–file’进行操作,如果只是清除操作可以结合选项’–primary-key-only’会更高效。

–quiet,-q
指定工具静默执行,不输出任何的执行信息。

–replace
指定写入选项’–dest’指定目标端表时改写 INSERT 语句为 REPLACE 语句。

–retries
默认值:1
指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。

–run-time
指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为 s = 秒,m = 分,h = 小时,d = 天,如果没指定,默认为 s。

–[no]safe-auto-increment
默认值:yes
指定不使用自增列 (AUTO_INCREMENT) 最大值对应的行进行归档。
该选项在进行归档清除时会额外添加一条 WHERE 子句以防止工具删除单列升序字段具有的具有 AUTO_INCREMENT 属性最大值的数据行,为了在数据库重启之后还能使用到 AUTO_INCREMENT 对应的值,但这会引起无法归档或清除字段对应最大值的行。

–set-vars
默认:
wait_timeout=10000
innodb_lock_wait_timeout=1
lock_wait_timeout=60
工具归档时指定参数值,如有多个用’,’(逗号) 分隔。如’–set-vars=wait_timeout=5000’。

–skip-foreign-key-checks
指定使用语句 SET FOREIGN_KEY_CHECKS = 0 禁用外键检查。

–sleep
指定工具在通过 SELECT 语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项’–file’指定的文件不会被刷新。如果指定选项’–commit-each’,则在休眠之前会进行事务提交和文件刷新。

–statistics
指定工具收集并打印操作的时间统计信息。
统计信息示例如下:

Started at 2008-07-18T07:18:53, ended at 2008-07-18T07:18:53
Source: D=db,t=table
SELECT 4
INSERT 4
DELETE 4
Action Count Time Pct
commit 10 0.1079 88.27
select 5 0.0047 3.87
deleting 4 0.0028 2.29
inserting 4 0.0028 2.28
other 0 0.0040 3.29

–txn-size
默认:1
指定每个事务处理的行数。如果是 0 则禁用事务功能。

–version
显示工具的版本并退出。

–[no]version-check
默认值:yes
检查 Percona Toolkit、MySQL 和其他程序的最新版本。

–why-quit
指定工具打印当非因完成归档行数退出的原因。
在执行一个自动归档任务时该选项与选项’–run-time’一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项’–statistics’,则会打印所有退出的原因。
```
参考:www.actionsky.com/3451.html

本作品采用《CC 协议》,转载必须注明作者和本文链接
MissYou-Coding
Coding Peasant @ 互联网
文章
193
粉丝
10
喜欢
60
收藏
66
排名:599
访问:1.3 万
私信
所有博文
博客标签
社区赞助商