最近在处理一个功能的时候,需要批量插入数据,发现Mybatis—Plus自带的批量插入方法有点问题,于是记录一下,方便以后用到的。
目录
- 使用batchSave
-
- 创建Service接口
- 创建Service实现类
- 注意
- 自定义方法
-
- Mapper编写自定义的sql
- 分批量操作
使用batchSave
Mybatis-Plus提供了IService接口,里面提供了batchSave方法,即批量保存方法
创建Service接口
创建一个基继承了Mybatis-Plus提供的IService接口的接口
public interface TestService extends IService<T>
创建Service实现类
创建一个实现类,继承Mybatis-Plus提供的ServiceImpl类,以及实现上面创建的接口
public class TestServiceImpl extends ServiceImpl<M extends BaseMapper<T>, T> implements TestService
注意
虽然可以使用batchSave实现批量插入,但是插入时频繁请求数据库,看了看方法,batchSave方法是一条条请求插入到数据库的,这样效率太低,且影响数据库的使用
自定义方法
Mapper编写自定义的sql
通过在Mapper编写自定义的sql方法实现批量插入
@Insert("<script>" +
"INSERT INTO T_TEST(id,content,created_time)VALUES" +
"<foreach collection='testDetails' item='testDetail' separator=','> " +
"(#{testDetail.id},#{testDetail.content},#{testDetail.createdTime})" +
"</foreach> " +
"</script>")//
boolean insertBatch(@Param("testDetails") List<TestBean> testBeanList);
使用动态标签循环拼接参数,但是在这之后,我又发现了一个问题,但数据量太多,拼接出来的语句太长导致内存溢出。
分批量操作
需要引入Lists的依赖
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>28.1-jre</version>
</dependency>
当数据量达到一定阈值时,按照一定数据量分组,分批次插入数据。
List<List<TestBean>> splistList = Lists.partition(testBeans,200);
splistList.forEach(itemList->testMapper.insertBatch(itemList));
相关文章
暂无评论...