设为首页 收藏本站
查看: 848|回复: 0

[经验分享] 使用Ambari来部署hadoop集群(搭建内网HDP源)

[复制链接]

尚未签到

发表于 2018-10-29 09:43:55 | 显示全部楼层 |阅读模式
  规划
  OS:centos6.5
  Ambari-yumrepo 10.10.10.20  公网
  Ambari-server  10.10.10.10  内网
  hadoop-master1 10.10.10.1   内网   
  hadoop-master2 10.10.10.2内网   
  hadoop-slave1  10.10.10.3内网  
  hadoop-slave2  10.10.10.4内网   
  hadoop-slave3  10.10.10.5内网
DSC0000.png

  准备工作
  (1)修改主机名

  •   Ambari-server、master1、master2、slave1、slave2、slave3
$ hostname XXX && echo XXX >/etc/hostname  
$ cat >> /etc/hosts >/etc/hosts.allow

  •   master1、master2
$ ssh-keygen -t rsa  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave3
  (4)安装jdk

  •   Ambari-server、master1、master2、slave1、slave2、slave3
$ wget http://download.oracle.com/otn-pub/java/jdk/8u111-b14/jdk-8u111-linux-x64.rpm  
$ rpm -ivh jdk-8u111-linux-x64.rpm
  (5)格式化硬盘

  •   Ambari-server、master1、master2、slave1、slave2、slave3
$ yes|mkfs.ext4 /dev/sdb  
$ mkdir /data
  
$ mount /dev/sdb /data
  
$ echo "mount /dev/sdb /data" >>/etc/rc.local
  
  (6)系统参数调优

  •   Ambari-server、master1、master2、slave1、slave2、slave3
$ cat >>/etc/sysctl.conf  /etc/security/limits.conf /etc/hosts.allow

  •   Ambari-server
$ ssh-keygen -t rsa  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@master1
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@master2
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
  
$ ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave3
  
  (3)安装ambari

  •   Ambari-server
$ yum -y install ambari-server
DSC0001.png

  (4)初始化ambari

  •   Ambari-server
  下载需要的jdk文件(必须用这个文件)
$ wget http://public-repo-1.hortonworks.com/ARTIFACTS/jdk-6u31-linux-x64.bin  
$ mv jdk-6u31-linux-x64.bin /var/lib/ambari-server/resources/
  

  
$ ambari-server setup  #初始化配置
DSC0002.png DSC0003.png

  
  (5)启动ambari

  •   Ambari-server
$ ambari-server start
DSC0004.png

  (6)给ambari配置本地的hadoop源

  •   Ambari-server
$ cd /var/lib/ambari-server/resources/stacks/HDPLocal/2.0.6/repos/  
$ vim repoinfo.xml
  
将centos6的
  
http://public-repo-1.hortonworks.com/HDP/centos6/2.x/updates/2.0.6.0
  
替换成
  
http://10.10.10.20/hdp/centos6/2.x/updates/2.0.6.0
  (7)进入ambari

  •   访问:http://10.10.10.10:8080进入ambari,user:admin,passwd:admin
DSC0005.png


  •   输入集群名
DSC0006.png


  •   选择 stack 版本
DSC0007.png


  •   Target Hosts输入hadoop机器的列表,需要添加ambari-server这台机器的/root/.ssh/id_rsa文件。
DSC0008.png


  •   会自动安装ambari-agent
DSC0009.png


  •   选择那个服务安装在哪个机器上。
DSC00010.png


  •   配置客户端和slaves
DSC00011.png


  •   配置各个系统
DSC00012.png


  •   开始安装
DSC00013.png

DSC00014.png DSC00015.png DSC00016.png

  通过Ambari部署hadoop集群成功!
  
  
  
  部署过程中遇到的问题:
  1:执行os_type_check.sh脚本执行失败导致的Local OS is not compatible with cluster primary OS报错,这是一个BUG,可以直接修改该os_type_check.sh,输出正确的结果。
  2:ambari没有复制过去正确的hdp源,所以手动将hdp源配置到hadoop的集群
$ vim hdp.repo  
[HDP-2.0.6]
  
name=HDP
  
baseurl=http://10.10.10.20/hdp
  
path=/
  
enabled=1
  
gpgcheck=0
  3:nagios输入正确密码和用户名无法登陆,密码文件httpd用户没有权限,设置777后可以正常访问。
  -rw-r----- 1 nagios nagios 26 Jun  9 11:54 /etc/nagios/htpasswd.users
  4:jourenode无法启动报错
DSC00017.png


  直接执行yum会报错
  $ yum  -d 0 -e 0 -y install net-snmp-utils
  rpmdb: Thread/process 12500/139757427676928 failed: Thread died in Berkeley DB library
  error: db3 error(-30974) from dbenv->failchk: DB_RUNRECOVERY: Fatal error, run database recovery
  error: cannot open Packages index using db3 -  (-30974)
  error: cannot open Packages database in /var/lib/rpm
  CRITICAL:yum.main:
  解决办法:
  $ rm -rf /var/lib/rpm/__db.*



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627821-1-1.html 上篇帖子: 工作日记:Hadoop客户端配置需与集群节点保持一致 下篇帖子: Hadoop 安装部署实践
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表