百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

MySQL批量插入数据的效率 mysql批量写入数据存储过程

wptr33 2024-11-08 15:03 43 浏览

关注我「程序猿集锦」,获取更多分享。

  • 背景
  • 环境准备
    • 准备表
    • 主备数据
  • 总结

背景

MySQL在插入数据的时候,应该怎么插入速度最快,效率最高?

我们经常使用的插入方式有如下几种:

  • 第一种:直接一行一个insert语句,如下所示:
insert into user(name, birthday) values('A','19950902');
...... /*此处省略*/
insert into user(name, birthday) values('C','19950904');
  • 第二种:使用begincommit事务包裹起来的每一行一个插入语句。
begin;
insert into user(name, birthday) values('A','19950902');
...... /*此处省略*/
insert into user(name, birthday) values('C','19950904');
commit;
  • 第三种:values关键字后面跟着很多行数据,一起批量插入。
insert into user(name, birthday) values('A','19950902'),('B','19950903'),('C','19950904');
...... /*此处省略*/
insert into user(name, birthday) values('A','19950902'),('B','19950903'),('C','19950904');
  • 第四种:使用begincommit事务包裹起来的批量插入的语句。
begin;
insert into user(name, birthday) values('A','19950902'),('B','19950903'),('C','19950904');
...... /*此处省略*/
insert into user(name, birthday) values('A','19950902'),('B','19950903'),('C','19950904');
end;

以上几种插入的语句,哪个SQL更快?下面让我们验证一下。

环境准备

准备表

我们在本地的MySQL中准备4张表,这样可以避免网络延迟导致的测试结果不准确的因素,本地直接连接MySQL数据库,网络因素就可以排除了。这四张表结构一样,然后针对这4张表,我们分别使用前面提到的4张插入数据的方式,分别测试。

4张表的结构如下,表名称不同,表结构一样。

CREATE TABLE `user_info_1` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_name` varchar(64) DEFAULT NULL,
  `age` tinyint(4) DEFAULT NULL,
  `cellphone` varchar(11) DEFAULT NULL,
  `address` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='第一种插入方式使用的表';

CREATE TABLE `user_info_2` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_name` varchar(64) DEFAULT NULL,
  `age` tinyint(4) DEFAULT NULL,
  `cellphone` varchar(11) DEFAULT NULL,
  `address` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='第二种插入方式使用的表';

CREATE TABLE `user_info_3` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_name` varchar(64) DEFAULT NULL,
  `age` tinyint(4) DEFAULT NULL,
  `cellphone` varchar(11) DEFAULT NULL,
  `address` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='第三种插入方式使用的表';

CREATE TABLE `user_info_1` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_name` varchar(64) DEFAULT NULL,
  `age` tinyint(4) DEFAULT NULL,
  `cellphone` varchar(11) DEFAULT NULL,
  `address` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='第四种插入方式使用的表';

主备数据

初始化数据的时候,大家可以参考这个存储过程,这个存储过程的作用就是在user_info表中生成指定行数的测试数据,该存储过程如下:

CREATE PROCEDURE `initial_user_info`(max_id int)
begin
    declare m int default 0;
    declare _username varchar(64) default '';
    declare _age int default 0;
    declare _cellphone varchar(11) default '';
    declare _address varchar(255) default '';
		
		start transaction;
		
			while m < max_id do
					set m = m + 1;
					set _username = substring( uuid(), 1, floor(8 + rand() * (29)));
					set _age = floor(18 + rand() * (43));
					set _cellphone = substr(rand(),-11);
					set _address = concat(substring( uuid(), 1, floor(8 + rand() * (29))), substring( uuid(), 1, floor(8 + rand() * (29))));
					insert into user_info (user_name, age, cellphone, address) values(_username, _age, _cellphone, _address);
			end while;
		
		commit;

end

如下的SQL是向user_info表中插入24W测试数据。

CREATE TABLE `user_info` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_name` varchar(64) DEFAULT NULL,
  `age` tinyint(4) DEFAULT NULL,
  `cellphone` varchar(11) DEFAULT NULL,
  `address` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='用于存储生成的测试数据的表';

call initial_user_info(240000);

user_info表中的数据准备好之后,我们可以把这表中的数据用数据库客户端工具导出来,导出的时候可以导出两种格式:一种是一行一行的insert语句,一种是批量insert的语句。基于导出来的这两种SQL文件,我们再手动patch成下面四个SQL文件。

准备待导入的SQL文件的时候,我们按照前面提到的4种方式,分别为user_info_1.sql、user_info_2.sql、user_info_3.sql、user_info_4.sql四个SQL文件,每一个文件中待导入的记录数都是24W行数据。它们里面的内容也是按照四中插入方式准备的。

  • 第一种,user_info_1.sql文件。里面的内容是一行一行的insert语句,每一行数据一个insert。没有使用事务begincommit包裹起来。
  • 第二种,user_info_2.sql文件。里面的内容是一行一行的insert语句,每一行数据一个insert。与第一个SQL文件的区别是,在文件第一行有begin,在文件的最后一行有commit。文件中的所有的语句使用一个事务begincommit包裹起来。
  • 第三种,user_info_3.sql文件。里面的内容是一行一行的insert语句,每一个insert语句后面跟着大概700~800个values值。是批量插入的一种方式,但是所有的批量插入的语句,没有使用事务begincommit包裹起来。
  • 第四种,user_info_4.sql文件。里面的内容是一行一行的insert语句,每一个insert语句后面跟着大概700~800个values值。是批量插入的一种方式,但是文件的开头是begin,文件的最后一行是commit。所有的批量插入的语句,使用一个事务begincommit包裹起来。

为了方便记录每一个SQL导入消耗的实际,我们使用一个简单的shell脚本来导入SQL文件,脚本内如下:

echo "`date '+%Y-%m-%d %H:%M:%S'`,开始导入..."
mysql -uroot -proot insert_by_batch_test < $1
echo "`date '+%Y-%m-%d %H:%M:%S'`,导入结束..."

执行导入的结果如下:

?  ~ ./mysql_import.sh ~/Downloads/user_info_1.sql
2021-07-16 15:08:15,开始导入...
mysql: [Warning] Using a password on the command line interface can be insecure.
2021-07-16 15:09:33,导入结束...
?  ~ #耗时 78s
?  ~
?  ~ ./mysql_import.sh ~/Downloads/user_info_2.sql
2021-07-16 15:10:24,开始导入...
mysql: [Warning] Using a password on the command line interface can be insecure.
2021-07-16 15:11:20,导入结束...
?  ~ #耗时 56s
?  ~
?  ~ ./mysql_import.sh ~/Downloads/user_info_3.sql
2021-07-16 15:11:37,开始导入...
mysql: [Warning] Using a password on the command line interface can be insecure.
2021-07-16 15:11:39,导入结束...
?  ~ #耗时 2s
?  ~
?  ~ ./mysql_import.sh ~/Downloads/user_info_4.sql
2021-07-16 15:11:46,开始导入...
mysql: [Warning] Using a password on the command line interface can be insecure.
2021-07-16 15:11:47,导入结束...
?  ~ #耗时 1s
?  ~

通过上面的实验过程可以发现,第一种导入的效率最差,最后一种导入的效率最高。四种导入方式的效率为:

第一种方式 < 第二种方式 < 第三种方式 < 第四种方式

总结

  • 第一种每一次都需要进行语法解析和语法判断,数据量特别大的时候每次解析的时间累计起来就很耗时,这是它慢的主要原因。
  • 第二种相对一对一种有一些优化,主要是对日志的操作有原先的一个SQL语句一个事务日志改为所有的SQL语句一个事务日志,这里的日志主要是binlog日志和回滚日志。
  • 第三种执行效率高的主要缘由是合并了SQL语句,采用批量的插入方式,降低了SQL语句解析的次数。此时的日志量binlog日志和回滚日志也合并在一起,下降日志刷盘的数据量和频率,从而提升效率。
  • 和第三种相比,这种方式把所有的操作合并为一个事务,日志合并后,降低了日志刷盘次数。所以此时效率更高。

所以在初始化一些数据的时候,我们尽量使用批量insert的方式,与此同时在批量insert语句前后使用事务包裹起来。当然事务包裹的SQL语句的大小也要合适,不能无限制地使用一个特别大的事务,这样效率也不高。

相关推荐

redis的八种使用场景

前言:redis是我们工作开发中,经常要打交道的,下面对redis的使用场景做总结介绍也是对redis举报的功能做梳理。缓存Redis最常见的用途是作为缓存,用于加速应用程序的响应速度。...

基于Redis的3种分布式ID生成策略

在分布式系统设计中,全局唯一ID是一个基础而关键的组件。随着业务规模扩大和系统架构向微服务演进,传统的单机自增ID已无法满足需求。高并发、高可用的分布式ID生成方案成为构建可靠分布式系统的必要条件。R...

基于OpenWrt系统路由器的模式切换与网页设计

摘要:目前商用WiFi路由器已应用到多个领域,商家通过给用户提供一个稳定免费WiFi热点达到吸引客户、提升服务的目标。传统路由器自带的Luci界面提供了工厂模式的Web界面,用户可通过该界面配置路...

这篇文章教你看明白 nginx-ingress 控制器

主机nginx一般nginx做主机反向代理(网关)有以下配置...

如何用redis实现注册中心

一句话总结使用Redis实现注册中心:服务注册...

爱可可老师24小时热门分享(2020.5.10)

No1.看自己以前写的代码是种什么体验?No2.DooM-chip!国外网友SylvainLefebvre自制的无CPU、无操作码、无指令计数器...No3.我认为CS学位可以更好,如...

Apportable:拯救程序员,IOS一秒变安卓

摘要:还在为了跨平台使用cocos2d-x吗,拯救objc程序员的奇葩来了,ApportableSDK:FreeAndroidsupportforcocos2d-iPhone。App...

JAVA实现超买超卖方案汇总,那个最适合你,一篇文章彻底讲透

以下是几种Java实现超买超卖问题的核心解决方案及代码示例,针对高并发场景下的库存扣减问题:方案一:Redis原子操作+Lua脚本(推荐)//使用Redis+Lua保证原子性publicbo...

3月26日更新 快速施法自动施法可独立设置

2016年3月26日DOTA2有一个79.6MB的更新主要是针对自动施法和快速施法的调整本来内容不多不少朋友都有自动施法和快速施法的困扰英文更新日志一些视觉BUG修复就不翻译了主要翻译自动施...

Redis 是如何提供服务的

在刚刚接触Redis的时候,最想要知道的是一个’setnameJhon’命令到达Redis服务器的时候,它是如何返回’OK’的?里面命令处理的流程如何,具体细节怎么样?你一定有问过自己...

lua _G、_VERSION使用

到这里我们已经把lua基础库中的函数介绍完了,除了函数外基础库中还有两个常量,一个是_G,另一个是_VERSION。_G是基础库本身,指向自己,这个变量很有意思,可以无限引用自己,最后得到的还是自己,...

China&#39;s top diplomat to chair third China-Pacific Island countries foreign ministers&#39; meeting

BEIJING,May21(Xinhua)--ChineseForeignMinisterWangYi,alsoamemberofthePoliticalBureau...

移动工作交流工具Lua推出Insights数据分析产品

Lua是一个适用于各种职业人士的移动交流平台,它在今天推出了一项叫做Insights的全新功能。Insights是一个数据平台,客户可以在上面实时看到员工之间的交流情况,并分析这些情况对公司发展的影响...

Redis 7新武器:用Redis Stack实现向量搜索的极限压测

当传统关系型数据库还在为向量相似度搜索的性能挣扎时,Redis7的RedisStack...

Nginx/OpenResty详解,Nginx Lua编程,重定向与内部子请求

重定向与内部子请求Nginx的rewrite指令不仅可以在Nginx内部的server、location之间进行跳转,还可以进行外部链接的重定向。通过ngx_lua模块的Lua函数除了能实现Nginx...