设为首页 收藏本站
查看: 1029|回复: 0

[经验分享] hadoop集群构建

[复制链接]

尚未签到

发表于 2018-10-29 06:06:38 | 显示全部楼层 |阅读模式
  1.      卸载CentOS自带的JDK和多余的软件
  yum remove java* libreoffice* -y
2.      关闭防火墙,SELINUX
  systemctl stop firewalld.service
  systemctl disable firewalld.service
  编辑文件/etc/selinux/config
  SELINUX=enforcing 改为 SELINUX= disabled
3.      设置SSH免密码登陆
  输入命令,ssh-keygen -t rsa ,生成key,一直回车,/root就会生成.ssh文件夹
  接下来执行以下命令
  cd ~/.ssh/

  cat>  chmod 644 ~/.ssh/authorized_keys
  chmod 744 ~/.ssh/
  systemctl enable sshd.service
  scp -rp authorized_keys 客户端IP:/root/.ssh/
  (scp没有.ssh目录,使用客户端ssh连接一下服务端即生成该文件夹)
  三台hadoop集群:
  192.168.159.151  master
  192.168.159.152  slave1
  192.168.159.153  slave2
  修改主机名hostname(客户端服务端均修改)
  [root@master ~]# cat /etc/sysconfig/network(永久修改)
  # Created by anaconda
  NETWORKING=yes
  HOSTNAME=master
  hostnamectl set-hostname [主机名]
  例 :hostnamectl set-hostname master
  修改/etc/hosts
  格式为:
  [root@slave1 /]# cat /etc/hosts
  127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
  ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
  192.168.159.151  master
  192.168.159.152  slave1
  192.168.159.153  slave2
  解压包:
  cd /usr/local/src/;rz -yb 上传hadoop-1.2.1-bin.tar.gz和jdk-6u45-linux-x64.bin
  tar zxvf  hadoop-1.2.1-bin.tar.gz;./jdk-6u45-linux-x64.bin
  拷贝到各节点:
  scp -rp jdk1.6.0_45  slave1:/usr/local/src/
  cd  /usr/local/src/jdk1.6.0_45/bin;./java
  vi ~/.bashrc
  加入JAVA的环境变量:
  export JAVA_HOME=/usr/local/src/jdk1.6.0_45

  export>  export PATH=$PATH:$JAVA_HOME/bin
  source ~/.bashrc
  hadoop安装:
  cd /usr/local/src/hadoop-1.2.1
  mkdir tmp(存放临时文件,core-site.xml 配置文件指定其pwd路径)
  cd /usr/local/src/hadoop-1.2.1/conf
  修改masters,slaves文件:
  [root@master conf]# cat masters
  master
  [root@master conf]# cat slaves
  slave1
  slave2
  [root@master conf]# cat hdfs-site.xml
  
  
  
  
  
  dfs.replication
  3
  
  
  [root@master conf]# cat core-site.xml
  
  
  
  
  
  hadoop.tmp.dir
  /usr/local/src/hadoop-1.2.1/tmp
  
  
  fs.default.name
  hdfs://192.168.159.151:9000
  
  
  [root@master conf]# cat hdfs-site.xml
  
  
  
  
  
  dfs.replication
  3
  
  
  [root@master conf]# cat mapred-site.xml
  
  
  
  
  
  mapred.job.tracker
  http://192.168.159.151:9001
  
  
  在hadoop-env.sh加入一行JAVA_HOME的环境变量:
  export JAVA_HOME=/usr/local/src/jdk1.6.0_45
  master执行:
  然后将服务端的hadoop-1.2.1目录scp到各客户端:
  scp -rp /usr/local/src/hadoop-1.2.1 slave1:/usr/local/src/
  cd /usr/local/src/hadoop-1.2.1/bin
  格式化namenode:
  ./hadoop namenode -format
  启动各节点:
  ./start-all.sh
  设置开机自动启动hadoop各节点,和生成hadoop启动命令的环境变量:
  cat /root/.bashrc
  export JAVA_HOME=/usr/local/src/jdk1.6.0_45
  export HADOOP_HOME=/usr/local/src/hadoop-1.2.1
  #export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
  $PATH换成现在定义的环境变量即可, :  用来分隔环境变量
  export PATH=$PATH:$JAVA_HOME/bin:/usr/local/src/hadoop-1.2.1/bin
  cat .bash_profile
  在.bash_profile里面追加一行:
  export HADOOP_HOME_WARN_SUPPRESS=1
  启动Hadoop时报了一个警告信息,我的系统是CentOS,安装的Hadoop版本是hadoop1.2.1,具体警告信息如下:
bin/start-all.sh Warning: $HADOOP_HOME is deprecated.  网上的说法是因为Hadoop本身对HADOOP_HOME做了判断,具体在bin/hadoop和bin/hadoop-config.sh里。在hadoop-config.sh里有如下的配置:
if [ "$HADOOP_HOME_WARN_SUPPRESS" = "" ] && [ "$HADOOP_HOME" != "" ]; then  
  echo "Warning: \$HADOOP_HOME is deprecated." 1>&2
  
  echo 1>&2fi
  2. 在当前用户目录下的 .bash_profile 里增加一个环境变量:
  export HADOOP_HOME_WARN_SUPPRESS=1 注:修改完 .bash_profile 后需要执行 source 操作使其生效
  master查看启动的节点
  [root@master hadoop-1.2.1]# jps
  5676 Jps
  3237 JobTracker
  3158 SecondaryNameNode
  2994 NameNode
  slave查看启动的节点:
  [root@slave1 ~]# jps
  2673 DataNode
  3346 Jps
  2757 TaskTracker
  查看hdfs
  ./hadoop fs -ls /
  上传文件
  ./hadoop fs -put  /etc/passwd  /
  查看上传的文件
  ./hadoop fs -cat  /passwd



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627653-1-1.html 上篇帖子: Hadoop集群(四) Hadoop升级 下篇帖子: hadoop集群安装方式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表