设为首页 收藏本站
查看: 1610|回复: 0

[经验分享] 用Python来写MapReduce的实际应用程序

[复制链接]

尚未签到

发表于 2018-8-6 08:07:18 | 显示全部楼层 |阅读模式
  用Python来写分布式的程序。这样速度快。便于调试,更有实际意义。MapReduce适合于对文本文件的处理及数据挖掘用:
  在每台机器上:
  
su - hadoop
  
wget http://www.python.org/ftp/python/3.0.1/Python-3.0.1.tar.bz2
  
tar jxvf Python-3.0.1.tar.bz2
  
cd Python-3.0.1
  
./configure --prefix=/home/hadoop/python;make;make install
  vi /home/hadoop/mapper.py
  

  
#!/home/hadoop/python/bin/python3.0
  

  
import sys
  
for line in sys.stdin:
  
line = line.strip()
  
words = line.split()
  
for word in words:
  
print ("%st%s" % (word, 1))
  

  vi /home/hadoop/reduce.py
  

  
#!/home/hadoop/python/bin/python3.0
  

  
from operator import itemgetter
  
import sys
  

  
word2count = {}
  

  
for line in sys.stdin:
  
line = line.strip()
  
word, count = line.split('t', 1)
  
try:
  
count = int(count)
  
word2count[word] = word2count.get(word, 0) + count
  
except ValueError:
  
pass
  

  
sorted_word2count = sorted(word2count.items(), key=itemgetter(0))
  

  
for word, count in sorted_word2count:
  
print ("%st%s" % (word, count))
  

  测测好不好用:
  
echo "foo foo quux labs foo bar quux" | /home/hadoop/mapper.py
  
foo 1
  
foo 1
  
quux 1
  
labs 1
  
foo 1
  
bar 1
  
quux 1
  echo "foo foo quux labs foo bar quux" | /home/hadoop/mapper.py | sort | /home/hadoop/reduce.py
  
bar 1
  
foo 3
  
labs 1
  
quux 2
  

  在各个节点上都要准备好这两个文件啊!!!
  在master主节点上执行:
  

  
# 拷贝conf目录到hdfs文件系统中
  
$ cd /home/hadoop/hadoop-0.19.1
  
$ bin/hadoop dfs -copyFromLocal conf 111
  # 查看一下是否已经拷过去了
  
$ bin/hadoop dfs -ls
  
Found 1 items
  
drwxr-xr-x - hadoop supergroup 0 2009-05-18 15:27 /user/hadoop/111
  

  # 分布计算
  
$ bin/hadoop jar  contrib/streaming/hadoop-0.19.1-streaming.jar -mapper  /home/hadoop/mapper.py -reducer /home/hadoop/reduce.py -input 111/*  -output 111-output
  
additionalConfSpec_:null
  
null=@@@userJobConfProps_.get(stream.shipped.hadoopstreaming
  
packageJobJar: [/tmp/hadoop-hadoop/hadoop-unjar29198/] [] /tmp/streamjob29199.jar tmpDir=null
  
[...] INFO mapred.FileInputFormat: Total input paths to process : 12
  
[...] INFO streaming.StreamJob: getLocalDirs(): [/tmp/hadoop-hadoop/mapred/local]
  
[...] INFO streaming.StreamJob: Running job: job_200905191453_0001
  
[...] INFO streaming.StreamJob: To kill this job, run:
  
...
  
[...]
  
[...] INFO streaming.StreamJob: map 0% reduce 0%
  
[...] INFO streaming.StreamJob: map 43% reduce 0%
  
[...] INFO streaming.StreamJob: map 86% reduce 0%
  
[...] INFO streaming.StreamJob: map 100% reduce 0%
  
[...] INFO streaming.StreamJob: map 100% reduce 33%
  
[...] INFO streaming.StreamJob: map 100% reduce 70%
  
[...] INFO streaming.StreamJob: map 100% reduce 77%
  
[...] INFO streaming.StreamJob: map 100% reduce 100%
  
[...] INFO streaming.StreamJob: Job complete: job_200905191453_0001
  
[...] INFO streaming.StreamJob: Output: 111-output [hadoop@wangyin4 hadoop-0.19.1]$
  
$ bin/hadoop dfs -ls 111-output
  
Found 2 items
  
drwxr-xr-x - hadoop supergroup 0 2009-05-19 14:54 /user/hadoop/111-output/_logs
  
-rw-r--r-- 2 hadoop supergroup 30504 2009-05-19 16:26 /user/hadoop/111-output/part-00000
  
$ bin/hadoop dfs -cat 111-output/part-00000
  
you 3
  
you've 1
  
your 1
  
zero 3
  
zero, 1
  

  
Over,搞定。大家可以拓展这个例子,写出自己的应用来。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-547303-1-1.html 上篇帖子: python复杂网络处理模块networkx 下篇帖子: Python re正则表达式学习
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表