我从源头获得了固定宽度的文件。
我需要基于偏移量提取几列,并将文件合并为输出,例如宽字符串的宽度为1000,那么我需要提取范围为1到100,200到400,800到1000的字符串,然后创建新文件由此。
我用过了
hdfs dfs -cat /data/a.txt |切-b1-100 | hadoop fs -put-/data/b.txt
但是它只能削减1到100,我需要提取列的范围
最佳答案
像这样?:
$ cat > foo
123456789
$ cut -b 1-2,4-5 foo
1245
关于unix - 从UNIX中的固定宽度文件中提取特定的列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52383490/