设为首页 收藏本站
查看: 1128|回复: 0

[经验分享] Hadoop伪分布式搭建步骤

[复制链接]

尚未签到

发表于 2017-12-17 11:40:23 | 显示全部楼层 |阅读模式
  说明: 搭建环境是VMware10下用的是Linux CENTOS 32位,Hadoop:hadoop-2.4.1  JAVA :jdk7 32位;本文是本人在网络上收集的HADOOP系列视频所附带的课堂笔记(这里直接抄过来的,望原谅,我不是坏人),记录备忘。
  开始前让我们简单修改下LINUX系统的JDK;一般情况下,我们都要将linux自带的OPENJDK卸载掉,然后安装SUN的JDK(下面的代码来源网络,请注意真实自己环境)
  <1> 查看已经安装的JAVA版本信息
  

# java -version   

  一般将获得如下信息:
  

java version "1.6.0"  
OpenJDK Runtime Environment (build
1.6.0-b09)  
OpenJDK
64-Bit Server VM (build 1.6.0-b09, mixed mode)  

  <2>查看jdk的信息
  

# rpm -qa|grep java   

  一般将获得如下信息:
  

java-1.4.2-gcj-compat-1.4.2.0-40jpp.115  
java
-1.6.0-openjdk-1.6.0.0-1.7.b09.el5  

  <3> 卸载
  

# yum -y remove java java-1.4.2-gcj-compat-1.4.2.0-40jpp.115  
# yum
-y remove java-1.6.0-openjdk-1.6.0.0-1.7.b09.el5  

  然后,就是真正安装HADOOP伪分布的过程,本人亲测成功。
  1.准备Linux环境(IP仅作参考)
  1.0   点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok
  回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.100 子网掩码:255.255.255.0 -> 点击确定
  在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
  1.1 修改主机名
  

vim /etc/sysconfig/network  

  
NETWORKING
=yes  
HOSTNAME
=itcast ### 这里就不修改,也让读者知道真正的作者来源  

  1.2 修改IP
  两种方式:
  第一种:通过Linux图形界面进行修改(强烈推荐)
  进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
  第二种:修改配置文件方式(屌丝程序猿专用)
  

vim /etc/sysconfig/network-scripts/ifcfg-eth0  

  DEVICE="eth0"
  BOOTPROTO="static"               ###
  HWADDR="00:0C:29:3C:BF:E7"
  IPV6INIT="yes"
  NM_CONTROLLED="yes"
  ONBOOT="yes"
  TYPE="Ethernet"
  UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
  IPADDR="192.168.1.101"           ###
  NETMASK="255.255.255.0"          ###
  GATEWAY="192.168.1.1"            ###
  1.3 修改主机名和IP的映射关系
  

vim /etc/hosts  192.168.1.101 itcast
  

  1.4 关闭防火墙
  

#查看防火墙状态  
service iptables status
  
#关闭防火墙
  
service iptables stop
  
#查看防火墙开机启动状态
  
chkconfig iptables
--list  
#关闭防火墙开机启动
  
chkconfig iptables off
  

  1.5 重启Linux  reboot
  2.安装JDK
  2.1 上传alt+p 后出现sftp窗口(使用的SecureCRT),然后
  

put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz   

  2.2 解压jdk
  

#创建文件夹  
mkdir
/home/hadoop/app  
#解压
  
tar
-zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app  

  2.3 将java添加到环境变量中
  

vim /etc/profile  
#在文件最后添加
  
export JAVA_HOME
=/home/hadoop/app/jdk-7u_65-i585  
export PATH
=$PATH:$JAVA_HOME/bin  
#刷新配置
  
source
/etc/profile  

  3.安装hadoop2.4.1
  先上传hadoop的安装包到服务器上去/home/hadoop/ 注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop 伪分布式需要修改5个配置文件
  3.1 配置hadoop
  第一个:hadoop-env.sh
  

vim hadoop-env.sh  
#第27行
  
export JAVA_HOME
=/usr/java/jdk1.7.0_65  

  第二个:core-site.xml
  

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->  
<property>
  
<name>fs.defaultFS</name>
  
<value>hdfs://weekend-1206-01:9000</value>
  
</property>
  
<!-- 指定hadoop运行时产生文件的存储目录 -->
  
<property>
  
<name>hadoop.tmp.dir</name>
  
<value>/home/hadoop/hadoop-2.4.1/tmp</value>
  
</property>
  

  第三个:hdfs-site.xml   hdfs-default.xml
  

<!-- 指定HDFS副本的数量 -->  
<property>
  <name>dfs.replication</name>
  <value>1</value>
  
</property>
  

  第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
  

vim mapred-site.xml  

  

<!-- 指定mr运行在yarn上 -->  
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  
</property>
  

  第五个:yarn-site.xml
  

<!-- 指定YARN的老大(ResourceManager)的地址 -->  
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>weekend-1206-01</value>
  
</property>
  
<!-- reducer获取数据的方式 -->
  
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  
</property>
  

  3.2 将hadoop添加到环境变量
  

vim /etc/proflie  

  
export JAVA_HOME
=/usr/java/jdk1.7.0_65  
export HADOOP_HOME
=/itcast/hadoop-2.4.1  
export PATH
=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin  
source
/etc/profile  

  3.3格式化namenode(是对namenode进行初始化)
  

hdfs namenode -format (hadoop namenode -format)  

  3.4启动hadoop
  

#先启动HDFS  
sbin
/start-dfs.sh  
#再启动YARN
  
sbin
/start-yarn.sh  

  3.5验证是否启动成功
  

使用jps命令验证  
# jps
  

27408 NameNode  

28218 Jps  

27643 SecondaryNameNode  

28066 NodeManager  

27803 ResourceManager  

27512 DataNode  
#http:
//192.168.1.101:50070 (HDFS管理界面)  
#http://192.168.1.101:8088 (MR管理界面)
  

  4.配置ssh免登陆
  

#生成ssh免登陆密钥  
#进入到我的home目录
  
cd
~/.ssh  

  
ssh
-keygen -t rsa (四个回车)  
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
  
将公钥拷贝到要免登陆的机器上
  
ssh
-copy-id localhost  

  最后,HADOOP就可以正常启动了。
  下面一些命令是我自己需要的,请忽略
  

service network restart  

  
cd
/home/hadoop/app/hadoop-2.4.1/sbin/  

  
/etc/udev/rules.d/70-persistent-net.rules
  
/etc/sysconfig/network-scripts/ifcfg-eth0
  

  
1. Remove Network Manager from startup Services.
  
chkconfig NetworkManager off
  

  
2. Add Default Net Manager
  
chkconfig network on
  

  
3.Stop NetworkManager first
  
service NetworkManager stop
  

  
4.and then start Default Manager
  
service network start
  

  
scp -r /home/hadoop/jdk-7u65-linux-i586.tar.gz root@192.168.2.202:/home/seasky/jdk-7u65-linux-i586.tar.gz
  
scp -r /home/hadoop/hadoop-2.4.1.tar.gz root@192.168.2.202:/home/seasky/hadoop-2.4.1.tar.gz
  

  附件:hadoop-shell.7z

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424986-1-1.html 上篇帖子: 我的空中楼阁 下篇帖子: hadoop 2.7.3 (hadoop2.x)使用ant制作eclipse插件hadoop-eclipse
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表