我正在为Autoparts商店开发一个web应用程序。
我正在制作一个在CSV文件中导入的算法,该文件包含大约40000个产品(行)。这是我第一次处理这么大的文件。所以在继续之前我有一些问题。
1) MySQL会花时间导入每一行吗?还是会自动崩溃并在一定时间内抛出错误?
2) 我正在使用PDO来处理所有与数据库相关的东西。如果数据库正在导入所有这数千行,而web应用程序用户突然关闭浏览器、关闭计算机或其他什么,该怎么办?
上传的文件会在服务器中完成导入吗?还是事务会中断?
在这种情况下,我想要回滚。
谢谢你给我的启发。
是的,您可以插入超过40000条的大量记录。
看看这些难题就知道了。
max_allowed_packet
bulk_insert_buffer_size
key_buffer_size
你可以参考一下http://dev.mysql.com/doc/refman/5.7/en/packet-too-large.html