博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
MyBatis 三种批量插入方式的对比 !
阅读量:2489 次
发布时间:2019-05-11

本文共 4358 字,大约阅读时间需要 14 分钟。

数据库使用的是sqlserver,JDK版本1.8,运行在SpringBoot环境下对比3种可用的方式:

  1. 反复执行单条插入语句

  2. xml拼接sql

  3. 批处理执行

先说结论:少量插入请使用反复插入单条数据,方便。数量较多请使用批处理方式。(可以考虑以有需求的插入数据量20条左右为界吧,在我的测试和数据库环境下耗时都是百毫秒级的,方便最重要)。无论何时都不用xml拼接sql的方式

代码

拼接SQL的xmlnewId()是sqlserver生成UUID的函数,与本文内容无关

    INSERT INTO tb_item VALUES    
        (newId(),#{item.uniqueCode},#{item.projectId},#{item.name},#{item.type},#{item.packageUnique},        #{item.isPackage},#{item.factoryId},#{item.projectName},#{item.spec},#{item.length},#{item.weight},        #{item.material},#{item.setupPosition},#{item.areaPosition},#{item.bottomHeight},#{item.topHeight},        #{item.serialNumber},#{item.createTime}

Mapper接口Mapper是 mybatis插件tk.Mapper 的接口,与本文内容关系不大

public interface ItemMapper extends Mapper
 {    int insertByBatch(List
 itemList);}

Service类

@Servicepublic class ItemService {    @Autowired    private ItemMapper itemMapper;    @Autowired    private SqlSessionFactory sqlSessionFactory;    //批处理    @Transactional    public void add(List
 itemList) {        SqlSession session = sqlSessionFactory.openSession(ExecutorType.BATCH,false);        ItemMapper mapper = session.getMapper(ItemMapper.class);        for (int i = 0; i < itemList.size(); i++) {            mapper.insertSelective(itemList.get(i));            if(i%1000==999){//每1000条提交一次防止内存溢出                session.commit();                session.clearCache();            }        }        session.commit();        session.clearCache();    }    //拼接sql    @Transactional    public void add1(List
 itemList) {        itemList.insertByBatch(itemMapper::insertSelective);    }    //循环插入    @Transactional    public void add2(List
 itemList) {        itemList.forEach(itemMapper::insertSelective);    }}

测试类

@RunWith(SpringRunner.class)@SpringBootTest(webEnvironment = SpringBootTest.WebEnvironment.RANDOM_PORT, classes = ApplicationBoot.class)public class ItemServiceTest {    @Autowired    ItemService itemService;    private List
 itemList = new ArrayList<>();    //生成测试List    @Before     public void createList(){        String json ="{\n" +                "        \"areaPosition\": \"TEST\",\n" +                "        \"bottomHeight\": 5,\n" +                "        \"factoryId\": \"0\",\n" +                "        \"length\": 233.233,\n" +                "        \"material\": \"Q345B\",\n" +                "        \"name\": \"TEST\",\n" +                "        \"package\": false,\n" +                "        \"packageUnique\": \"45f8a0ba0bf048839df85f32ebe5bb81\",\n" +                "        \"projectId\": \"094b5eb5e0384bb1aaa822880a428b6d\",\n" +                "        \"projectName\": \"项目_TEST1\",\n" +                "        \"serialNumber\": \"1/2\",\n" +                "        \"setupPosition\": \"1B柱\",\n" +                "        \"spec\": \"200X200X200\",\n" +                "        \"topHeight\": 10,\n" +                "        \"type\": \"Steel\",\n" +                "        \"uniqueCode\": \"12344312\",\n" +                "        \"weight\": 100\n" +                "    }";        Item test1 = JSON.parseObject(json,Item.class);        test1.setCreateTime(new Date());        for (int i = 0; i < 1000; i++) {//测试会修改此数量            itemList.add(test1);        }    }     //批处理    @Test    @Transactional    public void tesInsert() {        itemService.add(itemList);    }    //拼接字符串    @Test    @Transactional    public void testInsert1(){        itemService.add1(itemList);    }    //循环插入    @Test    @Transactional    public void testInsert2(){        itemService.add2(itemList);    }}

测试结果:

10条 25条数据插入经多次测试,波动性较大,但基本都在百毫秒级别

方式 50条 100条 500条 1000条
批处理 159ms 208ms 305ms 432ms
xml拼接sql 208ms 232ms 报错 报错
反复单条插入 1013ms 2266ms 8141ms 18861ms

其中 拼接sql方式在插入500条和1000条时报错(似乎是因为sql语句过长,此条跟数据库类型有关,未做其他数据库的测试):com.microsoft.sqlserver.jdbc.SQLServerException: 传入的表格格式数据流(TDS)远程过程调用(RPC)协议流不正确。此 RPC 请求中提供了过多的参数。最多应为 2100

可以发现

  • 循环插入的时间复杂度是 O(n),并且常数C很大

  • 拼接SQL插入的时间复杂度(应该)是 O(logn),但是成功完成次数不多,不确定

  • 批处理的效率的时间复杂度是 O(logn),并且常数C也比较小

结论

循环插入单条数据虽然效率极低,但是代码量极少,在使用tk.Mapper的插件情况下,仅需代码,:

@Transactionalpublic void add1(List
 itemList) {    itemList.forEach(itemMapper::insertSelective);}

因此,在需求插入数据数量不多的情况下肯定用它了。

xml拼接sql是最不推荐的方式,使用时有大段的xml和sql语句要写,很容易出错,工作效率很低。更关键点是,虽然效率尚可,但是真正需要效率的时候你挂了,要你何用?

批处理执行是有大数据量插入时推荐的做法,使用起来也比较方便。

转载地址:http://oflrb.baihongyu.com/

你可能感兴趣的文章
order by 排序原理及性能优化
查看>>
Lock重入锁
查看>>
docker安装 rabbitMq
查看>>
git 常用命令 入门
查看>>
关闭selinx nginx无法使用代理
查看>>
shell 脚本部署项目
查看>>
spring cloud zuul网关上传大文件
查看>>
springboot+mybatis日志显示SQL
查看>>
工作流中文乱码问题解决
查看>>
maven打包本地依赖包
查看>>
spring boot jpa 实现拦截器
查看>>
jenkins + maven+ gitlab 自动化部署
查看>>
Pull Request流程
查看>>
Lambda 表达式
查看>>
函数式数据处理(一)--流
查看>>
java 流使用
查看>>
java 用流收集数据
查看>>
java并行流
查看>>
CompletableFuture 组合式异步编程
查看>>
mysql查询某一个字段是否包含中文字符
查看>>