elasticsearch - 将数据从 SSD 引退到 HDD

标签 elasticsearch logstash kibana

我们目前正在将 ELK 堆栈与 Splunk 进行比较,Elasticsearch 表现糟糕的地方之一是数据保留。理想情况下,我们希望从不删除索引。

我们的配置是:

我当前的情况是:

  • 3 个 Elasticsearch 数据节点
    • 64GB RAM、双 CPU(16 核)、2 个 1TB SSD RAID0 和 2 个 4TB RAID0 (x2)
    • 32GB RAM、四核 CPU(32 核)、2x 512GB SSD(RAID0)、4x4TB HDD(RAID10)

我想做的是默认将所有索引写入 SSD,但在一段时间后将数据移动到较慢的阵列不运行双节点

有谁知道实现这一目标的方法吗?

最佳答案

实际上你可以做到——嗯,在大多数情况下。请看下面的博客文章,它比我在这里描述得更好

https://www.elastic.co/blog/hot-warm-architecture

关于elasticsearch - 将数据从 SSD 引退到 HDD,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30316865/

相关文章:

ubuntu - 作为服务启动时的 Logstash 不断重启

apache-spark - 列数据到Spark结构化流中的嵌套json对象

elasticsearch - Elastic中的geo_point

rest - 如何通过REST API自动运行bin/elasticsearch-setup-passwords?

elasticsearch - 在Elasticsearch中获得缺失的值(value)

elasticsearch - ElasticSearch-模式中的字段类型不匹配

ruby-on-rails - Searchkick-Elasticsearch-带下划线而不是空格的名称

elasticsearch - 模糊度超过2个字符的 Elasticsearch (距离)

elasticsearch - 使用logstash将日志发送到elasticsearch

apache - apache错误的logstash grok模式是什么?