elasticsearch - Elasticsearch上的“Too many open files”

标签 elasticsearch logstash

我有一个集群ES,从2天前开始出现此错误:

[2016-03-14 15:08:48,342][WARN ][cluster.action.shard] [node-01] [logstash-2016.03.14][2] received shard failed for [logstash-2016.03.14][2], node[72oHnFiXTVqgXaUYKTAu2Q], [P], s[INITIALIZING], indexUUID [AKybrAEZRXebyRxcmzTqJQ], reason [Failed to start shard, message [IndexShardGatewayRecoveryException[[logstash-2016.03.14][2] failed recovery]; nested: EngineCreationFailureException[[logstash-2016.03.14][2] failed to open reader on writer]; nested: FileSystemException[/var/lib/elasticsearch/elasticsearch/nodes/0/indices/logstash-2016.03.14/2/index/_lg_Lucene410_0.dvm: Too many open files]; ]]

如果我运行curl -XGET 'http://localhost:9200/_nodes?os=true&process=true&pretty=true' | grep "max_file_descriptors",则输出如下:
"max_file_descriptors" : 65535,
"max_file_descriptors" : 65535,

对于文件/etc/security/limit.conf我已经拥有:
elasticsearch - nofile 65535
elasticsearch - memlock unlimited

如果我检查索引的状态,我有一些索引为红色...。因此,logstash出错并崩溃了

最佳答案

只需将elasticsearch-nofile设置为无限制即可。
并确保您与正确的用户一起运行。

关于elasticsearch - Elasticsearch上的“Too many open files”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35990055/

相关文章:

rest - Elasticsearch中有多个索引/类型吗?

elasticsearch - Logstash多行未将消息分组

Elasticsearch 未启动 Search Guard 错误

elasticsearch - 使用 Logstash 建立索引时如何修复 Elasticsearch 中的重复文档?

amazon-web-services - AWS Glue Grok 模式,以毫秒为单位的时间戳

elasticsearch - Elasticsearch 和Logstash性能调优

Jira 的 Logstash Shipper 配置

spring-boot - Elasticsearch Spring boot findAll Result窗口太大,from + size必须小于或等于:[10000]但为[331576]

rest - 同时查询字符串和范围

java - 在logstash中使用jdbc输入插件时的时间变化