来源:Avinash
编辑:好困
最近,一位程序员表示自己急需一个「也就」十亿行数据的测试数据库,并且还得在一分钟之内生成。
于是,他做了一个所有程序员都会做的事:写一个Python脚本来生成数据库。
然而,很不幸的是,这个脚本非 常 慢。
于是,他又做了一个所有程序员都会做的事:进一步学习关于SQLite、Python以及不知道为什么还有Rust的知识。
项目已开源:
https://github.com/avinassh/fast-sqlite3-inserts
作者需要在他2019年的MacBook Pro(2.4GHz四核i5)上,一分钟内生成一个有10亿行的SQLite数据库。
表的模式
要求:
不过,作者表示,对脚本的要求也不用太高,还是可以妥协的:
在最开始的脚本中,作者试图在一个for循环中逐一插入1000万条记录,而这让用时直接达到了15分钟。
显然,这太慢了。
在SQLite中,每次插入都是一个事务,每个事务都保证它被写入磁盘,作者推断可能问题就来自这里。
于是作者开始尝试不同规模的批量插入,发现10万是一个最佳点,而运行时间减少到了10分钟。
作者认为自己写的代码已经很简练了,并没有什么可以优化的空间。
于是他将下一个目标转到了数据库的优化。
根据各种关于SQLite优化的建议,作者做了一些改进。
此处作者提醒,请不要把这些操作用到生产上去。
作者再次重写了Python脚本,这次包括了微调的SQLite参数,这次带来了巨大的提升,运行时间大幅减少:
PyPy在其主页上强调它比CPython快4倍,于是作者决定尝试一下。
令作者有些意外的是,竟然不需要对现有的代码进行任何改动,只需要在PyPy运行就可以了。
批处理版本只需要2.5分钟,也就是速度快了接近3.5倍。
莫非是在Python的循环上耗费了太多时间?于是作者删除了SQL指令之后再次跑了一遍代码:
然而用Rust重写了相同的内容之后,循环只需要17秒。
于是,作者果断抛弃Python,转投Rust的怀抱。
像Python一样,作者先写了一个原始的Rust版本,一个循环执行一行数据的插入。
然而,即便使用了所有SQLite的优化,也依然消耗了大约3分钟。于是作者进行了进一步的测试:
使用准备好的语句,以50行为一个批次插入,最终用时34.3秒。
作者又写了一个线程版本,其中一个线程从通道接收数据,还有四个线程向通道推送数据。
这个也是目前性能最好的版本,最终用时大约32.37秒。
SQLite论坛上的网友提出了一个有趣的想法:测量内存数据库所需的时间。
于是作者又跑了一遍代码,将数据库的位置设定为「:memory:」,rust版本完成的时间少了两秒(29秒)。
也就是说将1亿条记录写入到磁盘上需要2秒,这个用时似乎也是合理的。
这也说明,可能没有更多的SQLite优化可以以更快的方式写入磁盘,因为99%的时间都花在生成和添加数据上。
插入1亿行数据的用时:
Rust33秒 PyPy126秒 CPython210秒
总结
目前,第二快的版本是单线程运行的,而作者的电脑有4个核心,于是他在一分钟内可以得到8亿行数据。然后再经过几秒钟的数据合并,时间仍然可以少于一分钟。
博主的这一番研究获得了网友们的一致好评。
真的很喜欢这些观点:
学习了更多关于PRAGMA语句。
PyPy的效率和灵活性可以通过即插即用的方式体现(将来一定会给它一个机会)。
文章的排版非常简单,有适当的源代码链接。很有趣,很容易上手。
Rust高光时刻又来了!
参考资料:
https://avi.im/blag/2021/fast-sqlite-inserts/
https://github.com/avinassh/fast-sqlite3-inserts