mongodb - Cassandra、HBase、MongoDB 或 Elastic Search 的写入性能如何

标签 mongodb elasticsearch cassandra nosql

我一直在寻找 Cassandra、HBase、Mongodb 和 Elastic Search 写入性能的真实测试结果。我想从我们的服务器收集日志数据,这些数据非常庞大。超过 10gb 一个小时。

我知道每个人都在谈论cassandra的写性能,这些产品有不同的使用领域。 K/V,面向文档或搜索。但我现在对它们的存储类型不感兴趣,只对写入性能感兴趣。例如每秒 5 万笔交易。

我还想在这些数据之上进行搜索。

对于每秒处理超过 50K 的传输,您有什么建议。

最佳答案

Cassandra 确实非常快。

Voldemort也非常快。我知道至少有一个 大型 网站选择了它而不是所有其他选项。

但是,实际上,50K/秒并没有什么特别的。我是在一台机器上用 MySQL 做的。

但是请注意,除了写入数据的速度之外,您还应该对以后可以使用这些数据做什么感兴趣。否则你可以pipe all your writes to /dev/null .它将疯狂快。

此外,您在互联网上找到的任何“基准”都是无用的。它要么使用具有某些特征的数据,要么使用合成数据。这可以发挥重要作用。没有人会使用您的数据对您的场景进行基准测试,除外。

关于mongodb - Cassandra、HBase、MongoDB 或 Elastic Search 的写入性能如何,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8636390/

相关文章:

cassandra - 如何从 Cassandra 集群导出数据并导入另一个集群

Cassandra Hector——查询不工作

java - 处理两个或多个 noSQL 数据库事务的方法是什么?

node.js - Mongoose 5.3.8 - 无法使用 MultiLineString 和 $push 提取地理键

elasticsearch - 全文搜索的字段优先级

node.js - Mongoose 原型(prototype): how to insert an url dynamically?

templates - Logstash模板不适合增加分片数量

elasticsearch - 精确的长期匹配

javascript - 访问 URL 时删除 MongoDB 条目 - node.js

mongodb - 为什么从大型 mongodb 集合中删除文档时索引大小不会减小?