jdbc插入大量数据时优化处理(转)
来源:互联网 发布:浙江网络教育好不好 编辑:程序博客网 时间:2024/05/08 18:02
这个就是做个练习.想看下JDBC的最大优化度.
我的要求就是插入到数据库里大量的数据 比如10W 或者 100W 而且要求内存稳定.
首先说下我的代码:
我的数据库MySQL
我的数据库辅助类
测试类
我用的批处理.最后执行10000条的记录是
当前进行完毕===>1000条
当前进行完毕===>2000条
当前进行完毕===>3000条
当前进行完毕===>4000条
当前进行完毕===>5000条
当前进行完毕===>6000条
当前进行完毕===>7000条
当前进行完毕===>8000条
当前进行完毕===>9000条
当前进行完毕===>10000条
数据导入完毕,所用时间为: 8140 ms
而我换了一种方案 用executeUpdate一次提交.SQL用StringBuilder串接 效率提升很快.
代码
导入进行===>1000条
导入进行===>2000条
导入进行===>3000条
导入进行===>4000条
导入进行===>5000条
导入进行===>6000条
导入进行===>7000条
导入进行===>8000条
导入进行===>9000条
导入进行===>10000条
数据导入完毕,所用时间为: 219 ms
1W条才129ms为什么会比批处理快这么多.但是还有问题就是 如果数据量更大 如20W 那么StringBuilder就装不下 堆栈溢出....
stringbuilder 看了msdn,发现最大的长度是Int32,开始没有理解,后来HJ告诉我能够至少容纳3M的长度,我又去check了一下msdn,最大的长度是2的32次方(2的32次方就是4G),但是网上有人说是2G,那就是2的31次方。
要注意的是stringbuilder非线程安全 用再多线程处理时要慎用
我测试的jdbc批处理操作,插入112万条数据的对比
批量向数据表插入一条数据(包含一个float值)
建立表个数 每个表插入数据条数 单个数据表耗时(毫秒) 数据库连接耗时(毫秒) 带数据库连接总耗时(毫秒) 不带数据库连接总耗时(毫秒) 备注
800 1440 480-600 312 437703 437391 调用Statement.execute批量插入
800 1440 100-200 328 118985 118657 调用Statement.addBatch批量插入
800 1440 40-110 313 56922 56609 调用PreparedStatement.addBatch批量插入
使用jdbc向数据库插入100000条记录,分别使用statement,PreparedStatement,及PreparedStatement+批处理3种方式进行测试:
1、使用statement插入100000条记录
public void exec(Connection conn){
try {
Long beginTime = System.currentTimeMillis();
conn.setAutoCommit(false);//设置手动提交
Statement st = conn.createStatement();
for(int i=0;i<100000;i++){
String sql="insert into t1(id) values ("+i+")";
st.executeUpdate(sql);
}
Long endTime = System.currentTimeMillis();
System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间
st.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
2、使用PreparedStatement对象
public void exec2(Connection conn){
try {
Long beginTime = System.currentTimeMillis();
conn.setAutoCommit(false);//手动提交
PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
for(int i=0;i<100000;i++){
pst.setInt(1, i);
pst.execute();
}
conn.commit();
Long endTime = System.currentTimeMillis();
System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间
pst.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
wordend 相关阅读:
- 性能测试(并发负载压力)测试分析
- 软件性能测试的重要性及策略
- 软件性能测试入门
3、使用PreparedStatement + 批处理
public void exec3(Connection conn){
try {
conn.setAutoCommit(false);
Long beginTime = System.currentTimeMillis();
PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
for(int i=1;i<=100000;i++){
pst.setInt(1, i);
pst.addBatch();
if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等
pst.executeBatch();
conn.commit();
pst.clearBatch();
}
}
Long endTime = System.currentTimeMillis();
System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒");
pst.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
在Oracle 10g中测试,结果:
1、使用statement耗时142秒;
2、使用PreparedStatement耗时56秒;
3、使用PreparedStatement + 批处理耗时:
a.50条插入一次,耗时5秒;
b.100条插入一次,耗时2秒;
c.1000条以上插入一次,耗时1秒;
通过以上可以得出结论,在使用jdbc大批量插入数据时,明显使用第三种方式(PreparedStatement + 批处理)性能更优。
当使用sqlserver 2000进行测试时,第三种方式最少耗时5秒,从这方面可以看出Oracle在处理大量数据时,明显性能更强。
- jdbc插入大量数据时优化处理(转)
- 【Java/JDBC.ORM】 jdbc插入大量数据时优化处理
- 【Java/JDBC.ORM】 jdbc插入大量数据时优化处理
- jdbc插入大量数据时优化处理-最近遇到的解决我一大难题
- JDBC中使用批处理处理大量的插入数据操作
- 用JDBC向数据库中插入大量数据时的优化
- JDBC+批处理 插入大量数据
- jdbc大量插入数据(prepareStatement)
- jdbc插入数据优化
- java jdbc向数据库插入大量数据
- 高效批量插入大量数据----JDBC-4
- Mysql大量插入数据时SQL语句的优化
- Mysql大量插入数据时SQL语句的优化
- sqlite大量数据插入的优化
- sqlite大量数据插入优化总结
- Sqlite3插入大量数据性能优化
- Oracle优化:大量数据插入或更新
- JDBC批处理-大量数据插入数据库减少插入时间
- 什么是Gzip?Gzip的作用?gzip压缩?图解
- VC6 在Vista Win7 下提高权限问题
- Ruby脚本获取网站内容
- 123
- Spring和Django安全机制的比较
- jdbc插入大量数据时优化处理(转)
- Window Server 2008中开启Window Media Player功能
- -jar参数运行应用时classpath的设置方法
- ldconfig 命令使用
- Xsl截取字符串
- 处理【GDI+ 中发生一般性错误】
- DIV 显示的是中间出现空格解决办法
- JavaScript eval() 函数
- Android内核介绍