使用Hibernate將 100 000 條記錄插入到數(shù)據(jù)庫的一個很自然的做法可能是這樣的
Session session = sessionFactory.openSession();Transaction tx = session.beginTransaction();for ( int i=0; i<100000; i++ ) {Customer customer = new Customer(.....);session.save(customer);}tx.commit();session.close();
這段程序大概運行到 50 000 條記錄左右會失敗并拋出 內(nèi)存溢出異常(OutOfMemoryException)
。 這是因為 Hibernate 把所有新插入的 客戶(Customer)
實例在 session級別的緩存區(qū)進行了緩存的緣故。
我們會在本章告訴你如何避免此類問題。首先,如果你要執(zhí)行批量處理并且想要達到一個理想的性能, 那么使用JDBC的批量(batching)功能是至關(guān)重要。將JDBC的批量抓取數(shù)量(batch size)參數(shù)設(shè)置到一個合適值 (比如,10-50之間):
hibernate.jdbc.batch_size 20
注意,假若你使用了identiy
標識符生成器,Hibernate在JDBC級別透明的關(guān)閉插入語句的批量執(zhí)行。
你也可能想在執(zhí)行批量處理時關(guān)閉二級緩存:
hibernate.cache.use_second_level_cache false
但是,這不是絕對必須的,因為我們可以顯式設(shè)置CacheMode
來關(guān)閉與二級緩存的交互。
如果要將很多對象持久化,你必須通過經(jīng)常的調(diào)用 flush()
以及稍后調(diào)用 clear()
來控制第一級緩存的大小。
Session session = sessionFactory.openSession();Transaction tx = session.beginTransaction();for ( int i=0; i<100000; i++ ) {Customer customer = new Customer(.....);session.save(customer);if ( i % 20 == 0 ) { //20, same as the JDBC batch size //20,與JDBC批量設(shè)置相同//flush a batch of inserts and release memory://將本批插入的對象立即寫入數(shù)據(jù)庫并釋放內(nèi)存session.flush();session.clear();}}tx.commit();session.close();