emr上的hadoop流式处理任务总是失败,出现“pipemapred.waitoutputthreads():子进程失败,代码143”

guicsvcw  于 2021-06-03  发布在  Hadoop
关注(0)|答案(0)|浏览(201)

我的hadoop streaming map reduce作业在amazon emr上不断失败,出现以下错误:

java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 143
    at org.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:372)
    at org.apache.hadoop.streaming.PipeMapRed.mapRedFinished(PipeMapRed.java:586)
    at org.apache.hadoop.streaming.PipeMapper.close(PipeMapper.java:135)
    at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:57)
    at org.apache.hadoop.streaming.PipeMapRunner.run(PipeMapRunner.java:36)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:441)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:377)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1132)
    at org.apache.hadoop.mapred.Child.main(Child.java:249)

从我在网上读到的内容来看,这似乎与发送到任务的sigterm有关(请参阅这里的这个线程)。我试过用 --jobconf "mapred.task.timeout=X" 但对于x的值,即使在一小时内仍然会收到相同的错误。我也试过报道 reporter:status:<message> 按照流式文档中的描述,定期发送到stderr。但是,这也不能阻止此错误的发生。据我所知,当我在日志文件中得到预期的输出时,我的进程开始并开始工作。但是,每次任务尝试都会以此错误结束。
这是我使用make启动流媒体作业的代码:

instances  = 50
type       = m1.small
bid        = 0.010
maptasks   = 20000
timeout    = 3600000

hadoop: upload_scripts upload_data
    emr -c ~/.ec2/credentials.json \
        --create \
        --name "Run $(maptasks) jobs with $(timeout) minute timeout and no reducer" \
        --instance-group master \
        --instance-type $(type) \
        --instance-count 1      \
        --instance-group core   \
        --instance-type $(type) \
        --instance-count 1      \
        --instance-group task         \
        --instance-type $(type)       \
        --instance-count $(instances) \
        --bid-price $(bid)            \
        --bootstrap-action $(S3-srpt)$(bootstrap-database) \
        --args "$(database)","$(http)/data","$(hadoop)"    \
        --bootstrap-action $(S3-srpt)$(bootstrap-phmmer)   \
        --args "$(hadoop)"                                 \
        --stream \
        --jobconf "mapred.map.tasks=$(maptasks)"   \
        --jobconf "mapred.task.timeout=$(timeout)" \
        --input $(S3-data)$(database)                                      \
        --output $(S3-otpt)$(shell date +%Y-%m-%d-%H-%M-%S)                \
        --mapper '$(S3-srpt)$(mapper-phmmer) $(hadoop)/$(database) $(hadoop)/phmmer' \
        --reducer NONE

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题