我需要解析 EBCDIC 输入文件格式。使用 Java,我可以像下面这样阅读它:
InputStreamReader rdr = new InputStreamReader(new FileInputStream("/Users/rr/Documents/workspace/EBCDIC_TO_ASCII/ebcdic.txt"), java.nio.charset.Charset.forName("ibm500"));
但是在 Hadoop Mapreduce 中,我需要通过 RecordReader
进行解析,但到目前为止还没有工作。
谁能提供解决这个问题的方法吗?
最佳答案
您可以尝试通过 Spark 解析它,也许可以使用 Cobrix这是 Spark 的开源 COBOL 数据源。
关于java - 如何使用 Hadoop Mapreduce 将 EBCDIC 转换为 TEXT,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34869138/