设为首页 收藏本站
查看: 1412|回复: 0

[经验分享] Hadoop安装配置

[复制链接]

尚未签到

发表于 2015-7-11 09:26:33 | 显示全部楼层 |阅读模式
  环境如下:
  ubuntu-12.04.2-server-amd64
  hadoop-1.0.4
  VirtualBox
  1、在VBox中安装Ubuntu Server,用户名和密码都是hadoop,安装完成后,克隆两份,这样就有三台机器,一台master,两台slave。克隆后的slave打开不能上网,原因是克隆的时候,“重新初始化所有网卡的MAC地址”,而Ubuntu系统中网卡缓存中的MAC地址也新的MAC地址不一致,解决方法是在克隆后的机器中删除一个文件,使用如下命令:



sudo rm /etc/udev/rules.d/70-persistent-net.rules
  然后重启,机器就能连网了。
  2、安装jdk,使用如下命令:



sudo apt-get install openjdk-6-jdk
  master和slave都要安装。
  3、修改机器名称,编辑/etc/hostname,把master机器修改成master.Hadoop,slave机器修改成slave1.Hadoop和slave2.Hadoop。
  4、修改机器网络配置,编辑/etc/network/interfaces。master的网络配置如下:



# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).
# The loopback network interface
auto lo
iface lo inet loopback
# The primary network interface
auto eth0
#iface eth0 inet dhcp
iface eth0 inet static
address 192.168.0.40
netmask 255.255.255.0
gateway 192.168.0.1
dns-nameservers 8.8.8.8
  slave1和slave2的配置只需要修改IP地址,分别是192.168.0.41和192.168.0.42。
  5、配置master和slave的hosts文件,编辑/etc/hosts,在文件中追加如下内容:



192.168.0.40    master.Hadoop
192.168.0.41    slave1.Hadoop
192.168.0.42    slave2.Hadoop
  三台机器的hosts配置相同。
  6、配置master无密码登录所有slave
  在master上执行:



ssh-keygen -t rsa -P ''
  这个命令用于生成无密码密钥对,询问其保存路径时直接回车采用默认路径。生成的密钥对为id_rsa和id_rsa.pub,默认存储在/home/hadoop/.ssh目录下。接着在master上做如下配置,把id_rsa.pub追加到授权的key里:



cat .ssh/id_rsa.pub >> .ssh/authorized_keys
  修改权限:authorized_keys的权限和.ssh目录的权限,使用如下命令:



chmod 600 .ssh/authorized_keys


chmod 700 .ssh
  在slave机器上创建.ssh目录,使用如下命令:



mkdir .ssh
  把authorized_keys复制到slave1机器的/home/hadoop/.ssh中,使用如下命令:



scp .ssh/authorized_keys slave1.Hadoop:/home/hadoop/.ssh/authorized_keys
  修改权限,同master上的权限配置,在slave2上做同样的操作。
  7、在master上安装hadoop
  解压hadoop-1.0.4.tar.gz:



tar -zxvf hadoop-1.0.4.tar.gz
  8、配置hadoop
  编辑conf/hadoop-env.sh,修改JAVA_HOME的值:



export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-amd64/
  编辑conf/mapred-site.xml,添加内容:








mapred.job.tracker
http://master.hadoop:9001


  编辑conf/hdfs-site.xml,添加内容:








dfs.name.dir
/home/hadoop/name


dfs.data.dir
/home/hadoop/data


dfs.replication
2


  编辑conf/core-site.xml,添加内容:








fs.default.name
hdfs://master.Hadoop:9000


hadoop.tmp.dir
/home/hadoop/hadoop-1.0.4/tmp


  编辑conf/masters,删除localhost,添加内容:



master.Hadoop
  编辑conf/slaves,删除localhost,添加内容:



slave1.Hadoop
slave2.Hadoop
  9、把master的hadoop-1.0.4拷贝到slave
  在master上执行:



scp -r hadoop-1.0.4 slave1.Hadoop:/home/hadoop/
scp -r hadoop-1.0.4 slave2.Hadoop:/home/hadoop/
  10、在master上格式化HDFS文件系统,使用如下命令:



hadoop-1.0.4/bin/hadoop namenode -format
  11、启动所有结点
  在master上执行:



hadoop-1.0.4/bin/start-all.sh
  在master上执行jps命令,输出如下:



1974 JobTracker
2101 Jps
1602 NameNode
1893 SecondaryNameNode
  说明master上hadoop正常启动。
  在slave上执行jps命令,输出如下:



2007 Jps
1423 DataNode
1636 TaskTracker
  说明slave上hadoop正常启动。
  也可以在浏览器中打开192.168.0.40:50030或者192.168.0.40:50070查看master和slave是否正常启动。
  12、关闭所有节点
  在master上执行:



hadoop-1.0.4/bin/stop-all.sh
  
  
  参考链接:
  http://blog.chinaunix.net/uid-26867092-id-3213709.html
  http://www.iyunv.com/xia520pi/archive/2012/05/16/2503949.html
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85399-1-1.html 上篇帖子: Hadoop完全分布式配置 下篇帖子: hadoop上的pageRank算法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表