mysql 导入大量数据 Repair with keycache
来源:互联网 发布:hadoop python 书籍 编辑:程序博客网 时间:2024/05/16 18:52
今天大导一个大mysql的数据库的时候,gzip的压缩包有10G,所以原文件大概就有50个G左右了,刚开始导入还是正常的,可以后来发现数据库好像没有导入了,可是进入数据库一看,相应的表都还没有导完,利用show processlist一看发现一个错误,Repair with keycache,于是google一把,由下面的链接http://stackoverflow.com/questions/1067367/mysql-how-to-avoid-repair-with-keycache明白了,原来相应的tmp地址的空间不够,因为我没有在my.cnf之中指定相应的/tmp的位置,从而,麻烦来了,机器的空间是有限的,而我又要导入数据,怎么办?
一会儿明白,可以不用先解压再导入,可以边解压边导入,从而就可以节省出原来的gzip的文件解压也占用的空间,从而/tmp目录自然也不会被占用,只是导入的时候会慢一点而已.
利用cat命令如下:
cat outfile.gz | gunzip | mysql -u username -p dbname
- mysql 导入大量数据 Repair with keycache
- 【MySQL】关于Repair by keyCache
- mysql大量数据导入
- mysql 导入大量数据
- mysql导入大量数据
- mysql导入大量数据
- MySQL导入导出大量数据
- 导入大量数据到mysql
- mysql大量数据导入导出
- mysql 大量数据导入方法[代码]
- Mysql 大量数据快速导入导出
- Mysql大量数据快速导入导出
- Mysql 大量数据快速导入导出
- Mysql 大量数据快速导入导出
- window下mysql导入大量数据
- 大量导入数据
- 从 MySQL 导入导出大量数据的程序
- 从MySQL导入导出大量数据的程序实现方法
- Hydrax cfg file-HydraxDemo.hdx
- jvm terminate exit code = -1
- TfrxReport总结
- Java,sql的基础书看了一堆,可很少有实际经验,感觉自己没怎么提高,大家给点意见~~谢谢~~
- 2009-10-19 jsp and servlet 构造器 static静态
- mysql 导入大量数据 Repair with keycache
- 模拟超强主动降噪耳机功能的实验
- 天凉了!!
- 托管代码与非托管代码之间的封送处理
- 什么是单点登录
- SVN使用简单教程
- C++什么时候进行迟绑定?
- HttpHandler的认识与加深理解
- pku 2976 Dropping tests(数值的二分测试)