php - 一次处理更多插入的想法

标签 php mysql mongodb architecture redis

我正在使用 PHPMySql 做一个预订网站,我将在其中获取大量用于插入单次插入的数据。意味着如果我一次获得 1000 个预订,我会非常慢。所以我想将这些数据转储到 MongoDb 并运行任务以保存在 MySql 中。此外,我还想使用 Redis 来缓存查看次数最多的数据。

现在我直接插入数据库。

请提出任何人对此有任何想法/建议。

最佳答案

就纯插入而言,它真的很难超越 MySQL...它是目前最快的纯追加引擎之一(持续刷新到磁盘)。

1000 行在 MySQL 插入性能中算不了什么。如果您完全落后,请减少二级索引的数量。

这是一个非常有用的基准:https://www.percona.com/blog/2012/05/16/benchmarking-single-row-insert-performance-on-amazon-ec2/ ,显示每秒插入 10,000-25,000 个单独的插入。

这是另一个比较 MySQL 和 MongoDB 的例子:DB with best inserts/sec performance?

关于php - 一次处理更多插入的想法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36931499/

相关文章:

mysql - 如何在 SQL 中的行中查找重复项?

node.js - 如何最好地通过 meteor 来 'tail -f' mongo 中的大型集合?

node.js - 在 MongoDB 中聚合后查找

php - mysql时间类型显示12 :00 AM as default value

javascript - Jquery 在控制台中工作,但在复选框启用禁用的实际代码中不起作用

mysql - 无法将 mysql 与 laravel (docker) 连接

node.js - Mongoose findById 没有返回所有字段

ubuntu - 上传大于10mb的文件时"Connection Interrupted"

php - GirManageParcsBundle :Parcs:manage. html.twig 中不存在键为 "name"的数组的键 "1, 2"

mysql - 将所有记录从 UTC 更新为 EST 时区 + mysql