jdbc插入大量数据时优化处理(转)

来源:互联网 发布:浙江网络教育好不好 编辑:程序博客网 时间:2024/05/08 18:02

这个就是做个练习.想看下JDBC的最大优化度.
我的要求就是插入到数据库里大量的数据 比如10W 或者 100W 而且要求内存稳定.
首先说下我的代码:
我的数据库MySQL 

我的数据库辅助类

测试类

 

 

我用的批处理.最后执行10000条的记录是

 

当前进行完毕===>1000条
当前进行完毕===>2000条
当前进行完毕===>3000条
当前进行完毕===>4000条
当前进行完毕===>5000条
当前进行完毕===>6000条
当前进行完毕===>7000条
当前进行完毕===>8000条
当前进行完毕===>9000条
当前进行完毕===>10000条
数据导入完毕,所用时间为: 8140 ms

 

而我换了一种方案 用executeUpdate一次提交.SQL用StringBuilder串接 效率提升很快.
代码

 

 

导入进行===>1000条
导入进行===>2000条
导入进行===>3000条
导入进行===>4000条
导入进行===>5000条
导入进行===>6000条
导入进行===>7000条
导入进行===>8000条
导入进行===>9000条
导入进行===>10000条
数据导入完毕,所用时间为: 219 ms

1W条才129ms为什么会比批处理快这么多.但是还有问题就是 如果数据量更大 如20W 那么StringBuilder就装不下 堆栈溢出....

stringbuilder 看了msdn,发现最大的长度是Int32,开始没有理解,后来HJ告诉我能够至少容纳3M的长度,我又去check了一下msdn,最大的长度是2的32次方(2的32次方就是4G),但是网上有人说是2G,那就是2的31次方。

 

要注意的是stringbuilder非线程安全  用再多线程处理时要慎用

 

 


 

 

我测试的jdbc批处理操作,插入112万条数据的对比
批量向数据表插入一条数据(包含一个float值)
建立表个数 每个表插入数据条数 单个数据表耗时(毫秒) 数据库连接耗时(毫秒) 带数据库连接总耗时(毫秒) 不带数据库连接总耗时(毫秒) 备注
800 1440 480-600 312 437703 437391 调用Statement.execute批量插入
800 1440 100-200 328 118985 118657 调用Statement.addBatch批量插入
800 1440 40-110 313 56922 56609 调用PreparedStatement.addBatch批量插入

 

 

 

使用jdbc向数据库插入100000条记录,分别使用statement,PreparedStatement,及PreparedStatement+批处理3种方式进行测试:

  1、使用statement插入100000条记录

  public void exec(Connection conn){

  try {

  Long beginTime = System.currentTimeMillis();

  conn.setAutoCommit(false);//设置手动提交

  Statement st = conn.createStatement();

  for(int i=0;i<100000;i++){

  String sql="insert into t1(id) values ("+i+")";

  st.executeUpdate(sql);

  }

  Long endTime = System.currentTimeMillis();

  System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间

  st.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

  2、使用PreparedStatement对象

  public void exec2(Connection conn){

  try {

  Long beginTime = System.currentTimeMillis();

  conn.setAutoCommit(false);//手动提交

  PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");

  for(int i=0;i<100000;i++){

  pst.setInt(1, i);

  pst.execute();

  }

  conn.commit();

  Long endTime = System.currentTimeMillis();

  System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间

  pst.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

wordend 相关阅读:

  • 性能测试(并发负载压力)测试分析
  • 软件性能测试的重要性及策略
  • 软件性能测试入门

  3、使用PreparedStatement + 批处理

  public void exec3(Connection conn){

  try {

  conn.setAutoCommit(false);

  Long beginTime = System.currentTimeMillis();

  PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");

  for(int i=1;i<=100000;i++){

  pst.setInt(1, i);

  pst.addBatch();

  if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等

  pst.executeBatch();

  conn.commit();

  pst.clearBatch();

  }

  }

  Long endTime = System.currentTimeMillis();

  System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒");

  pst.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

  在Oracle 10g中测试,结果:

  1、使用statement耗时142秒;

  2、使用PreparedStatement耗时56秒;

  3、使用PreparedStatement + 批处理耗时:

  a.50条插入一次,耗时5秒;

  b.100条插入一次,耗时2秒;

  c.1000条以上插入一次,耗时1秒;

  通过以上可以得出结论,在使用jdbc大批量插入数据时,明显使用第三种方式(PreparedStatement + 批处理)性能更优。

  当使用sqlserver 2000进行测试时,第三种方式最少耗时5秒,从这方面可以看出Oracle在处理大量数据时,明显性能更强。