我目前正在为我的应用程序测试一些数据库。主要功能是数据聚合(类似于这里的这个人:Data aggregation mongodb vs mysql)。
我遇到了同样的问题。我创建了一个示例测试数据。 mysql 端没有连接,它是一个 innodb 表。这是一个 160 万行的数据集,我正在对整个表进行求和和计数,没有任何过滤器,因此我可以比较每个聚合引擎的性能。在这两种情况下,所有数据都适合内存。在这两种情况下,都没有写入负载。
使用 MySQL (5.5.34-0ubuntu0.12.04.1) 我得到的结果总是在 2.03 和 2.10 秒左右。 使用 MongoDB(2.4.8,linux 64 位),我得到的结果总是在 4.1 到 4.3 秒之间。
如果我对索引字段进行一些过滤,MySQL 结果时间将下降到 1.18 和 1.20 左右(处理的行数下降到正好是数据集的一半)。 如果我对 MongoDB 上的索引字段进行相同的过滤,结果时间只会下降到 3.7 秒左右(再次处理一半的数据集,我通过对匹配条件的解释确认了这一点)。
我的结论是: 1) 我的文档设计得非常糟糕(真的可以),或者 2)MongoDB聚合框架确实不符合我的需求。
问题是:我可以做什么(在特定的 mongoDB 配置、文档建模等方面)来使 Mongo 的结果更快?这是MongoDB不适应的情况吗?
我的表和文档架构:
|事件_正常|
CREATE TABLE `events_normal` (
`origem` varchar(35) DEFAULT NULL,
`destino` varchar(35) DEFAULT NULL,
`qtd` int(11) DEFAULT NULL,
KEY `idx_orides` (`origem`,`destino`)
) ENGINE=InnoDB DEFAULT CHARSET=latin1 |
{
"_id" : ObjectId("52adc3b444ae460f2b84c272"),
"data" : {
"origem" : "GRU",
"destino" : "CGH",
"qtdResultados" : 10
}
}
提到的索引和过滤字段是“origem”和“destino”。
select sql_no_cache origem, destino, sum(qtd), count(1) from events_normal group by origem, destino;
select sql_no_cache origem, destino, sum(qtd), count(1) from events_normal where origem="GRU" group by origem, destino;
db.events.aggregate( {$group: { _id: {origem: "$data.origem", destino: "$data.destino"}, total: {$sum: "$data.qtdResultados" }, qtd: {$sum: 1} } } )
db.events.aggregate( {$match: {"data.origem":"GRU" } } , {$group: { _id: {origem: "$data.origem", destino: "$data.destino"}, total: {$sum: "$data.qtdResultados" }, qtd: {$sum: 1} } } )
谢谢!
最佳答案
聚合并不是 MongoDB 最初设计的目的,因此它并不是最快的功能。
当你真的想使用 MongoDB 时,你可以使用分片,这样每个分片都可以处理它在聚合中的份额(确保以每个组只在一个集群上的方式选择分片键,否则你会达到相反的效果)。然而,这不再是与 MySQL 的公平比较,因为 MongoDB 集群会使用更多的硬件。
关于MySQL 与 MongoDB 聚合性能对比,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20596841/