设为首页 收藏本站
查看: 1768|回复: 0

[经验分享] hadoop的安装

[复制链接]

尚未签到

发表于 2017-12-17 07:35:43 | 显示全部楼层 |阅读模式
下载
  先去官网下载压缩包wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz

编译
  因为官网上是在32位机器上编译的文件,所以在64位的linux机器上运行会报警告
  
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java>
  
需要自己在64位上重新编译源码,然后替换lib/native的文件,也可以直接使用编译的全部文件,详见

maven
  进入hadoop-2.8.0-src目录
  
执行maven打包命令mvn package -Pdist,native -DskipTests -Dtar
  
编译完成后把hadoop-dist/target/hadoop-2.8.0/lib/native下的文件替换到安装的hadoop/lib/native下,再运行就不会报上面的警告了
  编译hadoop会对环境有要求,需要一些其他工具,我编译成功前又安装了以下工具

protobuf
  下载protobuf的安装包wget https://github.com/google/protobuf/archive/v2.5.0.tar.gz
  
从github的下载的代码要先执行 ./autogen.sh 生成configure文件
  这里hadoop2.8必须要protobuf2.5才行,之前我下的3.1安装后才知道于hadoop不相配.但是2.5的autogen.sh已经比较老了,里面访问的google的代码已经迁移到github上了,所以根据3.1的autogen.sh来改写2.5的,让文件能正常下载解压
  

./configure  make
  make check
  make install
  
protoc --version #验证安装成功
  

cmake
  报错
  

[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (make) on project hadoop-pipes: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/xxx/hadoop-tools/hadoop-pipes/target/native"): java.io.IOException: error=2, No such file or directory -> [Help 1]  

  下载wget --no-check-certificate http://www.cmake.org/files/v2.8/cmake-2.8.10.2.tar.gz
  
解压
  
安装
  

./bootstrap  
make
  
make install
  
cmake --version #检查是否安装成功
  

openssl-devel zlib-devel
  报错
  

[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (make) on project hadoop-common: An Ant BuildException has occured: exec returned: 1
[ERROR] around Ant part ...<exec dir="/usr/local/hadoop/hadoop-2.4.0-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failonerror="true">... @ 4:138 in /usr/local/hadoop/hadoop-2.4.0-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml

  

  

  安装openssl-devel zlib-devel
  
yum install openssl-devel zlib-devel

三种模式
  hadoop有三种模式 standalone(单机模式),pseudo-distributed(伪分布式),fully-distributed(完全分布式);
  
单机模式是用来运行非分布式模式,一个单独的java进程.经常用来调试.
  
伪分布式模式也运行在一个单节点上,每个hadoop守护线程运行在分开的java的进程.参考
  
完全分布式.参考.

设置hadoop多节点集群
  参考

配置hosts
  

vi /etc/hosts  

  这样就可以使用域名访问其他节点

配置ssh
  配置ssh密钥访问,让集群节点之间能互相访问,配置好后
  

ssh <remote_host>  #就能登录到另一个节点  

配置hadoop

hadoop-env.sh
  vim  <hadoop_dir>/etc/hadoop/hadoop-env.sh
  
export JAVA_HOME=/usr/local/java

确认hadoop已经安装了
  <dir>/bin/hadoop hadoop version
  
如果安装完成就会显示hadoop版本

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424916-1-1.html 上篇帖子: Hadoop集群的安装 下篇帖子: hadoop worldcount小程序
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表