mysql 导入大量数据 Repair with keycache

来源:互联网 发布:hadoop python 书籍 编辑:程序博客网 时间:2024/05/16 18:52

今天大导一个大mysql的数据库的时候,gzip的压缩包有10G,所以原文件大概就有50个G左右了,刚开始导入还是正常的,可以后来发现数据库好像没有导入了,可是进入数据库一看,相应的表都还没有导完,利用show processlist一看发现一个错误,Repair with keycache,于是google一把,由下面的链接http://stackoverflow.com/questions/1067367/mysql-how-to-avoid-repair-with-keycache明白了,原来相应的tmp地址的空间不够,因为我没有在my.cnf之中指定相应的/tmp的位置,从而,麻烦来了,机器的空间是有限的,而我又要导入数据,怎么办?

 

一会儿明白,可以不用先解压再导入,可以边解压边导入,从而就可以节省出原来的gzip的文件解压也占用的空间,从而/tmp目录自然也不会被占用,只是导入的时候会慢一点而已.

 

利用cat命令如下:

cat outfile.gz | gunzip | mysql -u username -p dbname