hibernate批量处理
来源:互联网 发布:整站源码带数据下载 编辑:程序博客网 时间:2024/06/08 07:10
使用Hibernate将 100 000 条记录插入到数据库的一个很自然的做法可能是这样的
Session session = sessionFactory.openSession();Transaction tx = session.beginTransaction();for ( int i=0; i<100000; i++ ) { Customer customer = new Customer(.....); session.save(customer);}tx.commit();session.close();
这段程序大概运行到 50 000 条记录左右会失败并抛出 内存溢出异常(OutOfMemoryException)
。 这是因为 Hibernate 把所有新插入的客户(Customer)
实例在 session级别的缓存区进行了缓存的缘故。
我们会在本章告诉你如何避免此类问题。首先,如果你要执行批量处理并且想要达到一个理想的性能, 那么使用JDBC的批量(batching)功能是至关重要。将JDBC的批量抓取数量(batch size)参数设置到一个合适值 (比如,10-50之间):
hibernate.jdbc.batch_size 20
注意,假若你使用了identiy
标识符生成器,Hibernate在JDBC级别透明的关闭插入语句的批量执行。
你也可能想在执行批量处理时关闭二级缓存:
hibernate.cache.use_second_level_cache false
但是,这不是绝对必须的,因为我们可以显式设置CacheMode
来关闭与二级缓存的交互。
批量插入(Batch inserts)
如果要将很多对象持久化,你必须通过经常的调用 flush()
以及稍后调用 clear()
来控制第一级缓存的大小。
Session session = sessionFactory.openSession();Transaction tx = session.beginTransaction(); for ( int i=0; i<100000; i++ ) { Customer customer = new Customer(.....); session.save(customer); if ( i % 20 == 0 ) { //20, same as the JDBC batch size //20,与JDBC批量设置相同 //flush a batch of inserts and release memory: //将本批插入的对象立即写入数据库并释放内存 session.flush(); session.clear(); }} tx.commit();session.close();
0 0
- Hibernate批量处理
- Hibernate 的批量处理
- hibernate 批量处理
- Hibernate的批量处理
- Hibernate批量处理
- Hibernate批量处理
- Hibernate 批量处理
- Hibernate批量处理海量
- hibernate批量处理
- hibernate批量处理数据
- Hibernate 批量处理
- Hibernate 批量处理数据
- hibernate 批量处理
- Hibernate应用 批量处理
- hibernate批量处理数据
- Hibernate的批量处理
- Hibernate 批量处理
- Hibernate 批量处理
- 获取指定文件/目录命令
- 第14周 拓展练习(二)成绩处理函数版
- 观察者模式
- Codeforces 713C C. Sonya and Problem Wihtout a Legend (经典DP)
- 微服务化改造系列之四:授权中心
- hibernate批量处理
- android:TimePicker仿照IOS时间选择器,可自定义选择器
- AOP的实现的几种方式
- 守护进程
- 基于Puppet的自动化配置服务器系统
- 动态库制作
- sae+git+django上传
- spring-boot 热加载实现替换Jrebel
- CodeForces 66D 数学构造