设为首页 收藏本站
查看: 1203|回复: 0

[经验分享] hadoop 在redhat linux5 上部署成功(三机)

[复制链接]

尚未签到

发表于 2016-5-15 07:18:06 | 显示全部楼层 |阅读模式
断断续续,折腾了一个礼拜,终于在出差的时候把这个hadoop部署成功了。
我的环境是 VMware + redhat linux5,一台namenode,一台dataqnode,配置的过程中也遇到不少麻烦,一会儿再一一列举。
后来又在slaves里面加了个datanode节点,也成功了。看来这段时间的不断尝试没有白费,接下来就要开始在window+cygwin+eclipse里面写分布式搜索引擎了。
现在将成功的运行结果列出来。

[iyunv@rh0 bin]# hadoop fs -lsr /tmp
drwxr-xr-x   - root supergroup          0 2010-11-07 09:41 /tmp/hadoop-root
drwxr-xr-x   - root supergroup          0 2010-11-07 09:41 /tmp/hadoop-root/tmp
drwxr-xr-x   - root supergroup          0 2010-11-07 09:41 /tmp/hadoop-root/tmp/mapred
drwx-wx-wx   - root supergroup          0 2010-11-07 09:42 /tmp/hadoop-root/tmp/mapred/system
[iyunv@rh0 bin]# hadoop dfsadmin -report
Configured Capacity: 13391486976 (12.47 GB)
Present Capacity: 8943796224 (8.33 GB)
DFS Remaining: 8943742976 (8.33 GB)
DFS Used: 53248 (52 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 192.168.126.101:50010
Decommission Status : Normal
Configured Capacity: 13391486976 (12.47 GB)
DFS Used: 53248 (52 KB)
Non DFS Used: 4447690752 (4.14 GB)
DFS Remaining: 8943742976(8.33 GB)
DFS Used%: 0%
DFS Remaining%: 66.79%
Last contact: Sun Nov 07 09:42:18 CST 2010

[iyunv@rh0 bin]# ./hadoop fs -put /usr/local/cjd/b.txt /tmp/hadoop-root/tmp/cjd/b.txt
[iyunv@rh0 bin]# ./hadoop jar hadoop-0.20.2-examples.jar wordcount /tmp/hadoop-root/tmp/cjd /tmp/hadoop-root/tmp/output-dir
10/11/07 09:43:03 INFO input.FileInputFormat: Total input paths to process : 1
10/11/07 09:43:03 INFO mapred.JobClient: Running job: job_201011070941_0001
10/11/07 09:43:04 INFO mapred.JobClient:  map 0% reduce 0%
10/11/07 09:43:15 INFO mapred.JobClient:  map 100% reduce 0%
10/11/07 09:43:36 INFO mapred.JobClient:  map 100% reduce 100%
10/11/07 09:43:39 INFO mapred.JobClient: Job complete: job_201011070941_0001
10/11/07 09:43:39 INFO mapred.JobClient: Counters: 17
10/11/07 09:43:39 INFO mapred.JobClient:   Job Counters
10/11/07 09:43:39 INFO mapred.JobClient:     Launched reduce tasks=1
10/11/07 09:43:39 INFO mapred.JobClient:     Launched map tasks=1
10/11/07 09:43:39 INFO mapred.JobClient:     Data-local map tasks=1
10/11/07 09:43:39 INFO mapred.JobClient:   FileSystemCounters
10/11/07 09:43:39 INFO mapred.JobClient:     FILE_BYTES_READ=1836
10/11/07 09:43:39 INFO mapred.JobClient:     HDFS_BYTES_READ=1366
10/11/07 09:43:39 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=3704
10/11/07 09:43:39 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=1306
10/11/07 09:43:39 INFO mapred.JobClient:   Map-Reduce Framework
10/11/07 09:43:39 INFO mapred.JobClient:     Reduce input groups=131
10/11/07 09:43:39 INFO mapred.JobClient:     Combine output records=131
10/11/07 09:43:39 INFO mapred.JobClient:     Map input records=31
10/11/07 09:43:39 INFO mapred.JobClient:     Reduce shuffle bytes=1836
10/11/07 09:43:39 INFO mapred.JobClient:     Reduce output records=131
10/11/07 09:43:39 INFO mapred.JobClient:     Spilled Records=262
10/11/07 09:43:39 INFO mapred.JobClient:     Map output bytes=2055
10/11/07 09:43:39 INFO mapred.JobClient:     Combine input records=179
10/11/07 09:43:39 INFO mapred.JobClient:     Map output records=179
10/11/07 09:43:39 INFO mapred.JobClient:     Reduce input records=131
[iyunv@rh0 bin]# hadoop dfsadmin -report
Configured Capacity: 13391486976 (12.47 GB)
Present Capacity: 8943679754 (8.33 GB)
DFS Remaining: 8943587328 (8.33 GB)
DFS Used: 92426 (90.26 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 192.168.126.101:50010
Decommission Status : Normal
Configured Capacity: 13391486976 (12.47 GB)
DFS Used: 92426 (90.26 KB)
Non DFS Used: 4447807222 (4.14 GB)
DFS Remaining: 8943587328(8.33 GB)
DFS Used%: 0%
DFS Remaining%: 66.79%
Last contact: Sun Nov 07 09:46:22 CST 2010

[iyunv@rh0 bin]# hadoop fs -lsr /tmp
drwxr-xr-x   - root supergroup          0 2010-11-07 09:41 /tmp/hadoop-root
drwxr-xr-x   - root supergroup          0 2010-11-07 09:43 /tmp/hadoop-root/tmp
drwxr-xr-x   - root supergroup          0 2010-11-07 09:42 /tmp/hadoop-root/tmp/cjd
-rw-r--r--   1 root supergroup       1366 2010-11-07 09:42 /tmp/hadoop-root/tmp/cjd/b.txt
drwxr-xr-x   - root supergroup          0 2010-11-07 09:41 /tmp/hadoop-root/tmp/mapred
drwx-wx-wx   - root supergroup          0 2010-11-07 09:43 /tmp/hadoop-root/tmp/mapred/system
-rw-------   1 root supergroup          4 2010-11-07 09:42 /tmp/hadoop-root/tmp/mapred/system/jobtracker.info
drwxr-xr-x   - root supergroup          0 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir
drwxr-xr-x   - root supergroup          0 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir/_logs
drwxr-xr-x   - root supergroup          0 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir/_logs/history
-rw-r--r--   1 root supergroup      29085 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir/_logs/history/rh0_1289094087484_job_201011070941_0001_conf.xml
-rw-r--r--   1 root supergroup       7070 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir/_logs/history/rh0_1289094087484_job_201011070941_0001_root_word+count
-rw-r--r--   1 root supergroup       1306 2010-11-07 09:43 /tmp/hadoop-root/tmp/output-dir/part-r-00000
[iyunv@rh0 bin]# hadoop fs -get /tmp/hadoop-root/tmp/output-dir /usr/local/cjd/b
[iyunv@rh0 bin]#


【加入一个节点后查看节点】已经有2个可用的了。
Datanodes available: 2 (2 total, 0 dead)

[iyunv@rh0 bin]# hadoop dfsadmin -report
Configured Capacity: 26782973952 (24.94 GB)
Present Capacity: 18191843343 (16.94 GB)
DFS Remaining: 18191613952 (16.94 GB)
DFS Used: 229391 (224.01 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)
Name: 192.168.126.102:50010
Decommission Status : Normal
Configured Capacity: 13391486976 (12.47 GB)
DFS Used: 53263 (52.01 KB)
Non DFS Used: 4143476721 (3.86 GB)
DFS Remaining: 9247956992(8.61 GB)
DFS Used%: 0%
DFS Remaining%: 69.06%
Last contact: Sun Nov 07 10:06:55 CST 2010

Name: 192.168.126.101:50010
Decommission Status : Normal
Configured Capacity: 13391486976 (12.47 GB)
DFS Used: 176128 (172 KB)
Non DFS Used: 4447653888 (4.14 GB)
DFS Remaining: 8943656960(8.33 GB)
DFS Used%: 0%
DFS Remaining%: 66.79%
Last contact: Sun Nov 07 10:06:55 CST 2010


【控制台截图】
DSC0000.jpg
DSC0001.jpg
DSC0002.jpg
【遇到的问题】
0, 要把export HADOOP_HOME=/usr/local/cjd/hadoop/hadoop-0.20.2 加入 /etc/profile,否则datanode不知道这个?
1,"Name node is in safe mode",执行以下命令.
  bin/hadoop dfsadmin -safemode leave
  bin/hadoop dfsadmin -safemode off
2,如果修改了配置文件,然后datanode起不来,发现报如下错误,
Incompatible namespaceIDs in /tmp/hadoop-root/tmp/dfs/data: namenode namespaceID = 1952086391; datanode namespaceID = 1896626371
那么到 datanode的 /tmp/hadoop-root/tmp/dfs/data/current/文件系统下,把VERSION里面的namespaceID=xxxx 改成 前面这个:1952086391. 重启hadoop即可。
3,配置文件xml里面的机器名要用ip地址。要用ip保险一些。包括 master and slaves文件里面也写ip。
4,要在每个datanode上,telnet namenode 9000,如果能telnet通,说明没有问题。
5,wordcount启动问题:
  192.168.126.100: Address 192.168.126.100 maps to rh0, but this does not map back to the address - POSSIBLE BREAK-IN ATTEMPT!  
该问题的处理如下:请确保 /etc/xxx/xx/host是如下:

# that require network functionality will fail.
#127.0.0.1        rh0 localhost [配置成这个会报错]
127.0.0.1        localhost
::1        localhost6.localdomain6 localhost6
192.168.126.100 rh0
192.168.126.101 rh1
192.168.126.102 rh2

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-217061-1-1.html 上篇帖子: 请教:redhat 3 使用ip地址没能访问ruby on rails 应用程序??? 下篇帖子: redhat as4下Mysql5+php5+apache2.2.4+GD2安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表