Hadoop执行报错之莫名其妙的问题

时间:2022-09-27 19:48:43

近几天,在练习使用hadoop的streaming框架,但是中间遇到一个莫名其妙的问题,百思不得其解,无论是换hadoop-client环境,还是更改mapper和reducer,更换输入数据,不断修改参数,都不行,错误依旧。最后无意间发现是 shell脚本的问题。


原来我的shell脚本是

hadoop jar ${STREAMING} \
        -input  /work/test_hadoop/input/traindata \
        -output /work/test_hadoop/output  \
        -cacheArchive 'work/share/Python27.tar.gz#Python27' \
        -mapper "Python27/Python-2.7.8/python reducer.py mapper" \
        -reducer "Python27/Python-2.7.8/python reducer.py reducer" \
        -file reducer.py \ 
        -jobconf mapred.map.tasks=100 \
        -jobconf mapred.reduce.tasks=100 \
        -jobconf mapred.job.name="test_hadoop" \

总是报错,python:can‘t access reducer.py , no such file or directory.

但是我也把reducer.py加上了,无论是绝对路径还是相对路径,无论是cachefile选项还是file选项都无济于事。

后来我无意间又改动了一下hadoop jar ${STREAMING}后面的\,在后面加了一个空格, \ 变成红色。再次执行,报了另外一个错误,output option没有,我想怎么会没有呢?

仔细一想会不会是续行符有问题,果然再调整了所有的续行符之后,程序顺利执行。


总结:这个bug出现的主要原因是是对续行符不熟悉,只知道 \ 有续行的作用,但是不知道:“当反斜杠用于一行的最后一个字符时,shell把行尾的反斜杠作为续行”,最重要的是续行符要在最后一个字符。