apache-spark - 长时间运行时打开的文件太多 Kafka 异常

标签 apache-spark apache-kafka kafka-producer-api

我有一个 Java 中的 Kafka 生产者代码,它使用 java nio WatchService api 监视目录中的新文件,并获取任何新文件并推送到 kafka 主题。 Spark 流消费者从 kafka 主题中读取。 Kafka 生产者作业持续运行一天后出现以下错误。生产者每 2 分钟推送大约 500 个文件。我的 Kafka 主题有 1 个分区和 2 个复制因子。有人可以帮忙吗?

org.apache.kafka.common.KafkaException: Failed to construct kafka producer         
    at org.apache.kafka.clients.producer.KafkaProducer.<init>(KafkaProducer.java:342) 
    at org.apache.kafka.clients.producer.KafkaProducer.<init>(KafkaProducer.java:166) 
    at com.hp.hawkeye.HawkeyeKafkaProducer.Sender.createProducer(Sender.java:60) 
    at com.hp.hawkeye.HawkeyeKafkaProducer.Sender.<init>(Sender.java:38)   
    at com.hp.hawkeye.HawkeyeKafkaProducer.HawkeyeKafkaProducer.<init>(HawkeyeKafkaProducer.java:54) 
    at com.hp.hawkeye.HawkeyeKafkaProducer.myKafkaTestJob.main(myKafkaTestJob.java:81)

Caused by: org.apache.kafka.common.KafkaException: java.io.IOException: Too many open files
    at org.apache.kafka.common.network.Selector.<init>(Selector.java:125)
    at org.apache.kafka.common.network.Selector.<init>(Selector.java:147)  
    at org.apache.kafka.clients.producer.KafkaProducer.<init>(KafkaProducer.java:306)

... 7 more 
Caused by: java.io.IOException: Too many open files         
     at sun.nio.ch.EPollArrayWrapper.epollCreate(Native Method)         
     at sun.nio.ch.EPollArrayWrapper.<init>(EPollArrayWrapper.java:130)        
     at sun.nio.ch.EPollSelectorImpl.<init>(EPollSelectorImpl.java:69)      
     at sun.nio.ch.EPollSelectorProvider.openSelector(EPollSelectorProvider.java:36) 
     at java.nio.channels.Selector.open(Selector.java:227)         
     at org.apache.kafka.common.network.Selector.<init>(Selector.java:123)     
 ... 9 more

最佳答案

检查 ulimit -aH

与您的管理员联系并增加打开文件的大小,例如:

open files                      (-n) 655536

否则我怀疑您的代码中可能存在泄漏,请参阅:

http://mail-archives.apache.org/mod_mbox/spark-user/201504.mbox/%3CCAKWX9VVJZObU9omOVCfPaJ_bPAJWiHcxeE7RyeqxUHPWvfj7WA@mail.gmail.com%3E

关于apache-spark - 长时间运行时打开的文件太多 Kafka 异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49697834/

相关文章:

apache-spark - 如何将多个 ML 管道(模型)应用于同一个 Spark 流

amazon-s3 - confluence s3接收器把 key 放在哪里?

java - 通过 Kafka 发送/接收 Java 对象

apache-kafka - 来自远程服务器的 Kafka Producer

python - 将 DenseVector 存储在 PySpark 的 DataFrame 列中

apache-spark - 使用 Apache Spark 查询多个 Hive 存储

java - 如何根据输入 ID 在架构注册表中注册架构

apache-kafka - Kafka 设计问题 - Kafka Connect 与自己的消费者/生产者

java - 在 producer.send 期间获取 ProducerFencedException 的原因是什么?

java - 将架构应用于 Java 对象的 Spark 数据集