设为首页 收藏本站
查看: 1459|回复: 0

[经验分享] 单机上部署Hadoop2.2.0

[复制链接]
发表于 2018-10-31 10:34:01 | 显示全部楼层 |阅读模式
  首先安装JDK
  1下载JDK-下载jkd(http://www.oracle.com/technetwork/java/javase/downloads/index.html)
  2对于32位的系统可以下载以下两个Linux x86版本, 64位系统下载Linux x64版本(即x64.rpm和x64.tar.gz)(uname -a 查看系统版本 or getconfig LONG_BIT)
  3安装JDK
  安装方法参考http://docs.oracle.com/javase/7/docs/webnotes/install/linux/linux-jdk.html
  a 选择要安装java的位置,如/usr/目录下,新建文件夹java(mkdirjava)
  b 将文件jdk-7u40-linux-i586.tar.gz移动到/usr/java
  c 解压:tar -zxvf jdk-7u40-linux-i586.tar.gz
  v 删除jdk-7u40-linux-i586.tar.gz(为了节省空间)
  至此,jkd安装完毕,下面配置环境变量
  4打开/etc/profile(vim /etc/profile)
  在最后面添加如下内容:
  JAVA_HOME=/usr/java/jdk1.7.0_40(这里的版本号1.7.40要根据具体下载情况修改)
  CLASSPATH=.:$JAVA_HOME/lib.tools.jar
  PATH=$JAVA_HOME/bin:$PATH
  export JAVA_HOMECLASSPATH PATH
  5source /etc/profile
  6验证是否安装成功:java–version
  -----------------------------------------------------------------------------------------
  然后配置并启动Hadoop
  运行下面命令,将最新版的hadoop下载下来:
  [wyp@wyp hadoop]$ wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz
  当然,你也可以用下载的软件到上面的地址去下载。上面的命令是一行,由于此处太长了, 所以强制弄成两行。假设下载好的hadoop存放在/home/wyp/Downloads/hadoop目录中,由于下载下来的hadoop是压缩好的,请将它解压,运行下面的命令:
  [wyp@wyp hadoop]$ tar -xvf hadoop-2.2.0.tar.gz
  解压之后,你将会看到如下目录结构:
  [wyp@wyp hadoop]$ ls -l
  total 56
  drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 bin
  drwxr-xr-x. 3 wyp wyp  4096 Oct  7 14:38 etc
  drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 include
  drwxr-xr-x. 3 wyp wyp  4096 Oct  7 14:38 lib
  drwxr-xr-x. 2 wyp wyp  4096 Oct  7 14:38 libexec
  -rw-r--r--. 1 wyp wyp 15164 Oct  7 14:46 LICENSE.txt
  drwxrwxr-x. 3 wyp wyp  4096 Oct 28 14:38 logs
  -rw-r--r--. 1 wyp wyp   101 Oct  7 14:46 NOTICE.txt
  -rw-r--r--. 1 wyp wyp  1366 Oct  7 14:46 README.txt
  drwxr-xr-x. 2 wyp wyp  4096 Oct 28 12:37 sbin
  drwxr-xr-x. 4 wyp wyp  4096 Oct  7 14:38 share
  下面是配置Hadoop的步骤:首先设置好Hadoop环境变量:
  [wyp@wyp hadoop]$ sudo vim /etc/profile
  在/etc/profile文件的末尾加上以下配置
  export HADOOP_DEV_HOME=/home/wyp/Downloads/hadoop
  export PATH=$PATH:$HADOOP_DEV_HOME/bin
  export PATH=$PATH:$HADOOP_DEV_HOME/sbin
  export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
  export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
  export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
  export YARN_HOME=${HADOOP_DEV_HOME}
  export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
  然后按:wq保存。为了让刚刚的设置生效,运行下面的命令
  [wyp@wyp hadoop]$ sudo source /etc/profile
  接下来修改Hadoop的hadoop-env.sh配置文件,设置jdk所在的路径:
  [wyp@wyp hadoop]$ vim etc/hadoop/hadoop-env.sh
  在里面找到JAVA_HOME,并将它的值设置为你电脑jdk所在的绝对路径
  # The java implementation to use.
  export JAVA_HOME=/home/wyp/Downloads/jdk1.7.0_45
  设置好之后请保存退出。接下来请配置好一下几个文件(都在hadoop目录下的etc/hadoop目录下):
  ----------------core-site.xml
  
  fs.default.name
  hdfs://localhost:8020
  true
  
  ------------------------- yarn-site.xml
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  yarn.nodemanager.aux-services.mapreduce.shuffle.class
  org.apache.hadoop.mapred.ShuffleHandler
  
  ------------------------ mapred-site.xml
  
  mapreduce.framework.name
  yarn
  
  
  mapred.system.dir
  file:/opt/cloud/hadoop_space/mapred/system
  true
  
  
  mapred.local.dir
  file:/opt/cloud/hadoop_space/mapred/local
  true
  
  ----------- hdfs-site.xml
  
  dfs.namenode.name.dir
  file:/opt/cloud/hadoop_space/dfs/name
  true
  
  
  dfs.datanode.data.dir
  file:/opt/cloud/hadoop_space/dfs/data
  Determines where on the local
  filesystem an DFS data node should store its blocks.
  If this is a comma-delimited list of directories,
  then data will be stored in all named
  directories, typically on different devices.
  Directories that do not exist are ignored.
  
  true
  
  
  dfs.replication
  1
  
  
  dfs.permissions
  false
  
  上面的配置弄好之后,现在来进行测试,看看配置是否正确。首先格式化一下HDFS,如下命令:
  [wyp@wyp hadoop]$  hdfs namenode -format
  13/10/28 16:47:33 INFO namenode.NameNode: STARTUP_MSG:
  /************************************************************
  ..............此处省略好多文字......................
  ************************************************************/
  13/10/28 16:47:33 INFO namenode.NameNode: registered UNIX signal
  handlers for [TERM, HUP, INT]
  Formatting using clusterid: CID-9931f367-92d3-4693-a706-d83e120cacd6
  13/10/28 16:47:34 INFO namenode.HostFileManager: read includes:
  HostSet(
  )
  13/10/28 16:47:34 INFO namenode.HostFileManager: read excludes:
  HostSet(
  )
  ..............此处也省略好多文字......................
  13/10/28 16:47:38 INFO util.ExitUtil: Exiting with status 0
  13/10/28 16:47:38 INFO namenode.NameNode: SHUTDOWN_MSG:
  /************************************************************
  SHUTDOWN_MSG: Shutting down NameNode at wyp/192.168.142.138
  ************************************************************/
  [wyp@wyp hadoop]$
  大概出现上面的输出,好了,去启动一下你的Hadoop吧,命令如下:
  [wyp@wyp hadoop]$ sbin/start-dfs.sh
  [wyp@wyp hadoop]$ sbin/start-yarn.sh
  查看一下是否安装好了Hadoop,命令如下:
  [wyp@wyp hadoop]$ jps
  9582 Main
  9684 RemoteMavenServer
  7011 DataNode
  7412 ResourceManager
  17423 Jps
  7528 NodeManager
  7222 SecondaryNameNode
  6832 NameNode
  [wyp@wyp hadoop]$
  如何关闭Hadoop各个服务:其中的jps是jdk自带的,如果出现NameNode、SecondaryNameNode、NodeManager、ResourceManager、DataNode这五个进程,那就恭喜你了,你的Hadoop已经安装好了
  [wyp@wyp hadoop]$ sbin/stop-dfs.sh
  [wyp@wyp hadoop]$ sbin/stop-yarn.sh


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628857-1-1.html 上篇帖子: Hadoop专业解决方案-第13章 Hadoop的发展趋势-翻译稿 下篇帖子: hadoop之MapReduce框架TaskTracker端心跳机制分析(源码分析第六篇)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表