HTMLタグを含むファイル上のHadoopのMapReduceジョブ
質問
私は、大規模なHTMLファイルの束を持っていると私は、最も頻繁に使用される単語を見つけるために、それらの上のHadoopのMapReduceジョブを実行したいです。私はPythonで私のマッパーと減速の両方を書いて、それを実行するためのHadoopストリーミングを使用しました。
ここに私のマッパーです。
#!/usr/bin/env python
import sys
import re
import string
def remove_html_tags(in_text):
'''
Remove any HTML tags that are found.
'''
global flag
in_text=in_text.lstrip()
in_text=in_text.rstrip()
in_text=in_text+"\n"
if flag==True:
in_text="<"+in_text
flag=False
if re.search('^<',in_text)!=None and re.search('(>\n+)$', in_text)==None:
in_text=in_text+">"
flag=True
p = re.compile(r'<[^<]*?>')
in_text=p.sub('', in_text)
return in_text
# input comes from STDIN (standard input)
global flag
flag=False
for line in sys.stdin:
# remove leading and trailing whitespace, set to lowercase and remove HTMl tags
line = line.strip().lower()
line = remove_html_tags(line)
# split the line into words
words = line.split()
# increase counters
for word in words:
# write the results to STDOUT (standard output);
# what we output here will be the input for the
# Reduce step, i.e. the input for reducer.py
#
# tab-delimited; the trivial word count is 1
if word =='': continue
for c in string.punctuation:
word= word.replace(c,'')
print '%s\t%s' % (word, 1)
ここに私の減速である。
#!/usr/bin/env python
from operator import itemgetter
import sys
# maps words to their counts
word2count = {}
# input comes from STDIN
for line in sys.stdin:
# remove leading and trailing whitespace
line = line.strip()
# parse the input we got from mapper.py
word, count = line.split('\t', 1)
# convert count (currently a string) to int
try:
count = int(count)
word2count[word] = word2count.get(word, 0) + count
except ValueError:
pass
sorted_word2count = sorted(word2count.iteritems(),
key=lambda(k,v):(v,k),reverse=True)
# write the results to STDOUT (standard output)
for word, count in sorted_word2count:
print '%s\t%s'% (word, count)
たび私はちょうどパイプのような小さなサンプルの小さな文字列「Hello Worldのハローハロー世界...」私はランク付けされたリストの適切な出力を得ます。私は小さなHTMLファイルを使用して、私のマッパーにパイプにHTMLを猫を使用してみてくださいしようとすると、しかし、私は(INPUT2は、いくつかのHTMLコードが含まれています)、次のエラーを取得します:
rohanbk@hadoop:~$ cat input2 | /home/rohanbk/mapper.py | sort | /home/rohanbk/reducer.py
Traceback (most recent call last):
File "/home/rohanbk/reducer.py", line 15, in <module>
word, count = line.split('\t', 1)
ValueError: need more than 1 value to unpack
私はこれを取得していますなぜ誰も説明できますか?また、MapReduceのジョブプログラムをデバッグするための良い方法は何ですか?
解決
あなたはただでさえバグを再現することができます
echo "hello - world" | ./mapper.py | sort | ./reducer.py
問題はここにあります:
if word =='': continue
for c in string.punctuation:
word= word.replace(c,'')
(それが分割された後)上記入力用の場合のようword
は、単一の句読点である場合、それは空の文字列に変換されます。だから、ちょうど交換した後に、空の文字列のチェックを移動します。
所属していません StackOverflow