设为首页 收藏本站
查看: 1420|回复: 0

[经验分享] Hadoop安装部署(3)

[复制链接]

尚未签到

发表于 2018-11-1 10:09:06 | 显示全部楼层 |阅读模式
  Hadoop环境变量
  在/home/dbrg/HadoopInstall/hadoop-conf目录下的hadoop_env.sh中设置Hadoop需要的环境变量,其中JAVA_HOME是必须设定的变量。HADOOP_HOME变量可以设定也可以不设定,如果不设定,HADOOP_HOME默认的是bin目录的父目录,即本文中的/home/dbrg/HadoopInstall/hadoop。我的是这样设置的
  export  HADOOP_HOME=/home/dbrg/HadoopInstall/hadoop
  export  JAVA_HOME=/usr/java/jdk1.6.0
  从这个地方就可以看出前面所述的创建hadoop0.12.0的链接hadoop的优点了,当以后更新hadoop的版本的时候,就不需要在改配置文件,只需要更改链接就可以了。
  Hadoop配置文件
  如前所述,在hadoop-conf/目录下,打开slaves文件,该文件用来指定所有的从节点,一行指定一个主机名。即本文中的dbrg-2,dbrg-3,因此slaves文件看起来应该是这样的
  dbrg-2
  dbrg-3
  在 conf/目录中的hadoop-default.xml中包含了Hadoop的所有配置项,但是不允许直接修改!可以在hadoop-conf/目录下 的hadoop-site.xml里面定义我们需要的项,其值会覆盖hadoop-default.xml中的默认值。可以根据自己的实际需要来进行定 制。以下是我的配置档:
  
  
  
  
  
  fs.default.name
  dbrg-1:9000
  The name of the default file system. Either the  literal string "local" or a host:port for DFS.
  
  
  mapred.job.tracker
  dbrg-1:9001
  The host and port that the MapReduce job tracker  runs at. If "local", then jobs are run in-process as a single map and  reduce task.
  
  
  hadoop.tmp.dir
  /home/dbrg/HadoopInstall/tmp
  A base for other temporary directories.
  
  
  dfs.name.dir
  /home/dbrg/HadoopInstall/filesystem/name
  Determines where on the local filesystem the DFS  name node should store the name table. If this is a comma-delimited list  of directories then the name table is replicated in all of the  directories, for redundancy.
  
  
  dfs.data.dir
  /home/dbrg/HadoopInstall/filesystem/data
  Determines where on the local filesystem an DFS data  node should store its blocks. If this is a comma-delimited list of  directories, then data will be stored in all named directories,  typically on different devices. Directories that do not exist are  ignored.
  
  
  dfs.replication
  1
  Default block replication. The actual number of  replications can be specified when the file is created. The default is  used if replication is not specified in create time.
  
  
  部署Hadoop
  前面讲的这么多Hadoop的环境变量和配置文件都是在dbrg-1这台机器上的,现在需要将hadoop部署到其他的机器上,保证目录结构一致。
  [dbrg@dbrg-1:~]$scp  -r  /home/dbrg/HadoopInstall  dbrg-2:/home/dbrg/
  [dbrg@dbrg-1:~]$scp  -r  /home/dbrg/HadoopInstall  dbrg-3:/home/dbrg/
  至此,可以说,Hadoop已经在各个机器上部署完毕了下面就让我们开始启动Hadoop吧
  启动Hadoop
  启动之前,我们先要格式化namenode,先进入~/HadoopInstall/hadoop目录,执行下面的命令
  [dbrg@dbrg-1:hadoop]$bin/hadoop  namenode  -format
  不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件
  下面就该正式启动hadoop啦,在bin/下面有很多启动脚本,可以根据自己的需要来启动。
  * start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
  * stop-all.sh 停止所有的Hadoop
  * start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
  * stop-mapred.sh 停止Map/Reduce守护
  * start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
  * stop-dfs.sh 停止DFS守护
  在这里,简单启动所有守护
  [dbrg@dbrg-1:hadoop]$bin/start-all.sh
  同样,如果要停止hadoop,则
  [dbrg@dbrg-1:hadoop]$bin/stop-all.sh
  HDFS操作
  运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。
  建立目录
  [dbrg@dbrg-1:hadoop]$bin/hadoop  dfs  -mkdir  testdir
  在HDFS中建立一个名为testdir的目录
  复制文件
  [dbrg@dbrg-1:hadoop]$bin/hadoop  dfs  -put  /home/dbrg/large.zip  testfile.zip
  把本地文件large.zip拷贝到HDFS的根目录/user/dbrg/下,文件名为testfile.zip
  查看现有文件
  [dbrg@dbrg-1:hadoop]$bin/hadoop  dfs  -ls


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629248-1-1.html 上篇帖子: Hadoop安装部署(2) 下篇帖子: hadoop作业调优参数整理及原理(2)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表