JDBC批量插入数据优化,使用addBatch和executeBatch

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

JDBC批量插⼊数据优化,使⽤addBatch和executeBatch
JDBC批量插⼊数据优化,使⽤addBatch和executeBatch
SQL的批量插⼊的问题,如果来个for循环,执⾏上万次,肯定会很慢,那么,如何去优化呢?
解决⽅案:⽤ preparedStatement.addBatch()配合preparedStatement.executeBatch()去批量插⼊;效率要⽐⼀条⼀条插⼊快近60倍。

代码:
//获取要设置的Arp基准的List后,插⼊Arp基准表中
public boolean insertArpStandardList(List<ArpTable> list) {
Connection conn = null;
PreparedStatement ps = null;
ResultSet rs = null;
//MySql的JDBC连接的url中要加rewriteBatchedStatements参数,并保证5.1.13以上版本的驱动,才能实现⾼性能的批量插⼊。

//优化插⼊性能,⽤JDBC的addBatch⽅法,但是注意在连接字符串加上⾯写的参数。

//例如: String connectionUrl="jdbc:mysql://192.168.1.100:3306/test?rewriteBatchedStatements=true" ;
String sql = "insert into arp_standard(guid, devicebrand, devicename, deviceip, ipaddress, " +
"macaddress, createtime) values(?,?,?,?,?,?,?)";
try{
conn = DBConnection.getConnection();
ps = conn.prepareStatement(sql);
//优化插⼊第⼀步设置⼿动提交
conn.setAutoCommit(false);
int len = list.size();
for(int i=0; i<len; i++) {
ps.setString(1, list.get(i).getGuid());
ps.setString(2, list.get(i).getDeviceBrand());
ps.setString(3, list.get(i).getDeviceName());
ps.setString(4, list.get(i).getDeviceIp());
ps.setString(5, list.get(i).getIpAddress());
ps.setString(6, list.get(i).getMacAddress());
ps.setString(7, list.get(i).getCreateTime());
//if(ps.executeUpdate() != 1) r = false; 优化后,不⽤传统的插⼊⽅法了。

//优化插⼊第⼆步插⼊代码打包,等⼀定量后再⼀起插⼊。

ps.addBatch();
//if(ps.executeUpdate() != 1)result = false;
//每200次提交⼀次
if((i!=0 && i%200==0) || i==len-1){//可以设置不同的⼤⼩;如50,100,200,500,1000等等
ps.executeBatch();
//优化插⼊第三步提交,批量插⼊数据库中。

mit();
ps.clearBatch();//提交后,Batch清空。

}
}
} catch (Exception e) {
System.out.println("MibTaskPack->getArpInfoList() error:" + e.getMessage());
return false; //出错才报false
} finally {
DBConnection.closeConection(conn, ps, rs);
}
return true;
}。

相关文档
最新文档