设为首页 收藏本站
查看: 739|回复: 0

[经验分享] Hadoop 2.2在linux上伪分布安装

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-9-25 13:22:51 | 显示全部楼层 |阅读模式
1、确认java已经安装
1
2
3
4
[iyunv@carefree ~]# java -version
java version "1.7.0_51"
Java(TM) SE Runtime Environment (build 1.7.0_51-b13)
Java HotSpot(TM) 64-Bit Server VM (build 24.51-b03, mixed mode)




Hadoop 2.2官方建议使用jdk 1.6(sun)以上,我们这里使用1.7。Jdk安装比较简单,不做演示。  只需要下载包,解压,然后配置环境变量即可。
2、添加hadoop管理用户
使用用户hadoop,
1
2
3
4
5
6
7
8
9
[iyunv@carefree ~]# groupadd hadoop
[iyunv@carefree ~]# useradd -g hadoop hadoop
[iyunv@carefree ~]# passwd hadoop
Changing password for user hadoop.
New password:
BAD PASSWORD: it is based on a dictionary word
BAD PASSWORD: is too simple
Retype new password:
passwd: all authentication tokens updated successfully.




3、SSH互信
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[iyunv@carefree ~]# su - hadoop
[hadoop@carefree ~]$  ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
.....
.....
    +-----------------+
[hadoop@carefree ~]$ cd .ssh/
[hadoop@carefree .ssh]$ ll
total 8
-rw-------. 1 hadoop hadoop 1675 Sep  2 12:51 id_rsa
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 id_rsa.pub
[hadoop@carefree .ssh]$ cp id_rsa.pub authorized_keys
[hadoop@carefree .ssh]$  ll
total 12
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 authorized_keys
-rw-------. 1 hadoop hadoop 1675 Sep  2 12:51 id_rsa
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 id_rsa.pub
[hadoop@carefree .ssh]$ ssh localhost
The authenticity of host 'localhost (::1)' can't be established.
RSA key fingerprint is 15:09:cf:b4:94:df:a4:6b:65:69:3f:d4:c3:fc:8b:2a.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
[hadoop@carefree ~]$ ssh localhost
Last login: Tue Sep  2 12:51:41 2014 from localhost




4、解压安装包,配置相关参数
tar -zxvf hadoop-2.2.0.tar.gz
hadoop-env.sh 、yarn-env.sh、mapred-env.sh中指定JAVA_HOME,内容如下:
               export JAVA_HOME=/u01/app/jdk1.7.0_51
yarn-site.xml文件配置以下内容:
   
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
<configuration>
  
<!-- Site specific YARN configuration properties -->
     <property>
             <name>yarn.nodemanager.aux-services</name>
             <value>mapreduce_shuffle</value>
        </property>
        <property>
             <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
             <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
             <name>yarn.resourcemanager.address</name>
             <value>localhost:8032</value>
        </property>
        <property>
             <name>yarn.resourcemanager.scheduler.address</name>
             <value>localhost:8030</value>
        </property>
        <property>
             <name>yarn.resourcemanager.resource-tracker.address</name>
             <value>localhost:8031</value>                                                                  
        </property>                                                                                          
                                                                                                              
        <property>                                                                           
             <name>yarn.resourcemanager.admin.address</name>                                                
             <value>localhost:8033</value>                                                                  
        </property>                                                                                          
                                                                                                              
        <property>                                                                                          
             <name>yarn.resourcemanager.webapp.address</name>                                                
             <value>localhost:8088</value>                                                                  
        </property>                                                                                          
                                                                                                              
</configuration>






mapred-site.xml配置以下的内容:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
  
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>localhost:10020</value>
        </property>
  
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>localhost:19888</value>
        </property>
</configuration>





core-site.xml配置以下的内容
1
2
3
4
5
6
7
8
9
10
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/data/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>





5、格式化namenode,启动,验证
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
[hadoop@carefree app]$ hdfs namenode -format
-bash: hdfs: command not found
[hadoop@carefree app]$ vim /home/hadoop/.bash_profile
[hadoop@carefree app]$ source /home/hadoop/.bash_profile
[hadoop@carefree app]$ hdfs namenode -format
14/09/02 13:28:26 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = carefree/192.168.2.111
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 2.2.0
STARTUP_MSG:   classpath = /u01/app/hadoop-2.2.0/etc/hadoop:/u01/app/hadoop-2.2.0/share/hadoo
........
.......
/u01/app/hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-client-hs-plugins-2.2.0.jar:/u01/app/hadoop-2.2.0/contrib/capacity-scheduler/*.jar
STARTUP_MSG:   build = Unknown -r Unknown; compiled by 'root' on 2014-09-02T02:29Z
STARTUP_MSG:   java = 1.7.0_51)
14/09/02 13:28:28 INFO blockmanagement.DatanodeManager: dfs.block.invalidate.limit=1000
........
........
14/09/02 13:28:31 INFO namenode.FSImage: Image file /u01/app/data/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 198 bytes saved in 0 seconds.
14/09/02 13:28:31 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
14/09/02 13:28:31 INFO util.ExitUtil: Exiting with status 0
14/09/02 13:28:31 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at carefree/192.168.2.111
************************************************************/




启动相关进程:
1
2
3
4
5
6
7
8
9
10
[hadoop@carefree app]$ start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-namenode-carefree.out
localhost: starting datanode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-datanode-carefree.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-secondarynamenode-carefree.out
starting yarn daemons
starting resourcemanager, logging to /u01/app/hadoop-2.2.0/logs/yarn-hadoop-resourcemanager-carefree.out
localhost: starting nodemanager, logging to /u01/app/hadoop-2.2.0/logs/yarn-hadoop-nodemanager-carefree.out




检查进程:
1
2
3
4
5
6
7
[hadoop@carefree ~]$ jps
5826 NodeManager
5319 NameNode
5726 ResourceManager
5565 SecondaryNameNode
5413 DataNode
6337 Jps




校验hdfs:
1
2
3
4
5
[hadoop@carefree app]$ hadoop fs -ls /
[hadoop@carefree app]$ hadoop fs -mkdir /input
[hadoop@carefree app]$ hadoop fs -ls /
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2014-09-02 13:39 /input





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-25393-1-1.html 上篇帖子: 使用maven在linux上对hadoop 2.2进行编译 下篇帖子: hadoop2.4.1结合hbase0.96.2 linux
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表