我有一个固定宽度的文件从源代码。我需要基于偏移量提取少数列,并将文件合并为输出,比如如果宽字符串的宽度为1000,那么我需要提取范围为1到100、200到400、800到1000的字符串,然后从中创建新文件。我用过hdfs dfs-cat/data/a.txt | cut-b1-100 | hadoop fs-put-/data/b.txt然而,它只能削减1至100,我需要提取列的范围
des4xlb01#
这样地?:
$ cat > foo 123456789 $ cut -b 1-2,4-5 foo 1245
1条答案
按热度按时间des4xlb01#
这样地?: