场景描述
线上mysql数据库里面有张表保存有每天的统计结果,每天有1千多万条,这是我们意想不到的,统计结果咋有这么多。运维找过来,磁盘占了200G,最后问了运营,可以只保留最近3天的,前面的数据,只能删了。删,怎么删?
因为这是线上数据库,里面存放有很多其它数据表,如果直接删除这张表的数据,肯定不行,可能会对其它表有影响。尝试每次只删除一天的数据,还是卡顿的厉害,没办法,写个Python脚本批量删除吧。
具体思路是:
- 每次只删除一天的数据;
- 删除一天的数据,每次删除50000条;
- 一天的数据删除完,开始删除下一天的数据;
Python代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
|
# -*-coding:utf-8 -*-
import sys
# 这是我们内部封装的Python Module
sys.path.append( '/var/lib/hadoop-hdfs/scripts/python_module2' )
import keguang.commons as commons
import keguang.timedef as timedef
import keguang.sql.mysqlclient as mysql
def run(starttime, endtime, regx):
tb_name = 'statistic_ad_image_final_count'
days = timedef.getDays(starttime,endtime,regx)
# 遍历删除所有天的数据
for day in days:
print '%s 数据删除开始' % (day)
mclient = getConn()
sql = '''
select 1 from %s where date = '%s' limit 1
''' % (tb_name, day)
print sql
result = mclient.query(sql)
# 如果查询到了这一天的数据,继续删除
while result is not ():
sql = 'delete from %s where date = "%s" limit 50000' % (tb_name, day)
print sql
mclient.execute(sql)
sql = '''
select 1 from %s where date = '%s' limit 1
''' % (tb_name, day)
print sql
result = mclient.query(sql)
print '%s 数据删除完成' % (day)
mclient.close()
# 返回mysql 连接
def getConn():
return mysql.MysqlClient(host = '0.0.0.0' , user = 'test' , passwd = 'test' , db = 'statistic' )
if __name__ = = '__main__' :
regx = '%Y-%m-%d'
yesday = timedef.getYes(regx, - 1 )
starttime = '2019-08-17'
endtime = '2019-08-30'
run(starttime, endtime, regx)
|
以上就是Python批量删除mysql中千万级大量数据的脚本的详细内容,更多关于python 删除MySQL数据的资料请关注服务器之家其它相关文章!
原文链接:http://www.ikeguang.com/?p=607