设为首页 收藏本站
查看: 998|回复: 0

[经验分享] hadoop环境搭建及修改配置文件(第四讲)

[复制链接]

尚未签到

发表于 2018-10-30 06:25:38 | 显示全部楼层 |阅读模式
  1.设置ip
  service network restart 重启网卡生效
  2.关闭防火墙(在hadoop中要使用到许多端口,为了避免麻烦之间对防火墙进行关闭)
  service iptables stop 关闭防火墙命令
  service iptables status查看防火墙状态命令
DSC0000.jpg

  关闭防火墙的自动运行:
  查看自动运行的设置:chkconfig --list可以显示所有的设置(防火墙iptables)
DSC0001.jpg

  过滤查看防火墙自动启动设置
  chkconfig --list |(竖线) grep(过滤) iptables(过滤对象)
  管道:把左侧的输出作为右侧的输入
  将防火墙的自动启动设置全设置为off
  chkconfig iptables off
DSC0002.jpg

  从此后防火墙不会随着系统的重新启动自动开启了
  3.设置主机名
  查看主机名命令:hostname
  修改主机名:hostname crxy(超人学院),这种方式只对当前会话生效,重启系统后还是没有修改
  修改磁盘文件彻底改变主机名:vi /etc/sysconfig/network
  重启机器后生效:reboot -h now(这儿可以不用重启系统)
DSC0003.jpg

  4.ssh的配置操作:ssh是类似与telnet的在机器之间进行远程访问的工具,telnet是明文,ssh是加密
  ssh使用的是非对称加密,有公钥密钥的问题,如图所示中访问ip需要进行密码登录
DSC0004.jpg

  为了实现免密码登录,需要进行如下配置:
  ssh-keygen -t rsa(先产生密钥),多次回车后找到your public key has been saved in
  /root/.ssh/id_rsa.pub(密钥生成的公钥保存在一个目录中)
  cd /root/.ssh或者cd /root/.ssh、

  cp>  或者直接 cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
DSC0005.jpg

  也可以ssh localhost(当第一次访问的时候需要输入密码,之后就不需要输入密码了)
  对于ssh 主机名的问题解决(之所以出错是因为主机名依赖于域名,之所以能够在浏览器中输入主机名访问是因为绑定了域名的缘故),绑定ip地址的方法:
  5.ip与hostname绑定
  vi /etc/hosts(在下一行添加192.168.42.100 crxy)(分别对于linux的ip和主机名称)
DSC0006.jpg

  6.使用WinSCP工具软件在windows和linux之间的文件传递
DSC0007.jpg

DSC0008.jpg

  传送文件:左侧找到文件,右侧打开文件,路径中修改/root为/usr/local,(其中/usr/local是自定义的安装目录,也可以自己定义),下面会话书签点击添加,之后再点击共享书签,点击添加,最后确定
DSC0009.jpg

  这样之后local目录下会有文件,我们可以全部选中,右键点击删除
  然后把hadoop文件和jdk文件拖进去即可
DSC00010.jpg

  拖动完成后可以使用命令查看local下的文件
DSC00011.jpg

  7.安装jdk
  在安装jdk之前需要对权限进行修改,这样之后就能够使用tab键自动补全
  通过./jdk...进行解压
DSC00012.jpg

DSC00013.jpg

DSC00014.jpg

DSC00015.jpg

  8.安装hadoop
  解压.tar.gz格式的命令:  tar -xzvf hadoop-1.1.2.tar.gz
  x表示解压缩,z表示压缩格式,v表示显示信息,f表示文件
DSC00016.jpg

DSC00017.jpg

  配置环境变量
DSC00018.jpg

  9.安装伪分布
  修改hadoop/conf下的几个配置文件
  1.hadoop-env.sh
  2.core-site.xml
  3.hdfs-site.xml
  4.mapred-site.xml
  a.修改hadoop-env.sh
DSC00019.jpg

  b.core-site.xml
DSC00020.jpg

  c.hdfs-site.xml
DSC00021.jpg

  d.mapred-site.xml
DSC00022.jpg

DSC00023.jpg

  这样,hadoop的配置就算完成了,剩下的工作就是启动hadoop
  10.hadoop的启动
  a.在启动hadoop之前须要对hadoop文件系统进行格式化(hadoop包括存储和计算两部分,类似其他文件系统一样,当一个存储空间需要使用时须要对存储空间进行格式化)
  格式化的命令:hadoop namenode -format
DSC00024.jpg

  b.hadoop文件系统启动命令:
  start-all.sh
DSC00025.jpg

  验证:在window的命令窗口下(windows已经配置好了jdk的环境变量)运行命令jps(查看java进程的命令)就能够查看java的运行进程,如果在linux中运行jps可以查看到java进程的话表示hadoop文件系统启动成功(因为hadoop是基于java开发的)
DSC00026.jpg

DSC00027.jpg

  启动时没有NameNode的可能原因:
  (1)没有格式化
  (2)环境变量设置错误
  (3)ip与hostname绑定失败
  最后,我们可以通过浏览器的方式观察hadoop启动的状态,即我们可以通过windows访问:
  在windows浏览器中输入http://192.168.42.100:50070(http://192.168.42.100:50070(li linux网址+端口号)或者直接输入192.168.42.100:50070即可(这是因为在windows中也可以ping通linux网络的原因),在linux的浏览器中也可以看到同样的效果(在linux浏览器中ip地址可以使用主机名代替,因为它们之间相互绑定了)
DSC00028.jpg

DSC00029.jpg

  在浏览器查看中,50070查看的是NameNode的信息,50030查看的是MapReduce的信息
DSC00030.jpg

  11.命令汇总:
DSC00031.jpg



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628135-1-1.html 上篇帖子: Hadoop的基础架构 下篇帖子: Hadoop读取环境变量及setup函数
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表