hadoop - 连接HDFS时控制重试次数的属性有哪些

标签 hadoop

当我尝试使用无效 URL 连接到 HDFS 时,我收到以下形式的消息:

Retrying connect to server: <hostname>/<port>. Already tried <n> time(s); maxRetries=45

Hadoop 配置中的哪个属性控制 maxRetries

还有没有一种简单的方法可以找到这些属性(而不是尝试谷歌搜索)?

最佳答案

我看到你找到了答案。只是要补充一点,最直接的学习方法可能是阅读 Hadoop docs .

在此页面底部(当前)有一个名为“配置”的部分,其中还列出了这些文件和可用选项。

关于hadoop - 连接HDFS时控制重试次数的属性有哪些,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35940487/

相关文章:

hadoop - Spark Controller 和 SAP Vora 之间的区别

hadoop - 从远程服务器访问 hdfs 时,Kerberos 默认为错误的主体

java - 无法从本地 IDE 连接到 docker hbase

hadoop - start-dfs.sh数据节点在单节点模式下失败

Java.lang.finalize 堆在 hadoop url 解析作业期间变得太大

hadoop - 如何使用flink将增量数据写入配置单元

hadoop hdfs namenode 格式不起作用

hadoop - 在 Hadoop 的上下文中,压缩编解码器的可拆分性是什么意思?

java - 使用Apache DS/Apache Directory Studio的Hadoop安全性

java - 无法在 URI || 中的分布式缓存中加载文件获取 NULLPointerException