设为首页 收藏本站
查看: 1464|回复: 0

apache tez on hadoop-2.7.1

[复制链接]

尚未签到

发表于 2015-11-11 10:42:40 | 显示全部楼层 |阅读模式
  这几天要求应用tez在Hadoop和Hive上运行,参考了官网和网上的一些资料,今天终于能运行tez方式的Hadoop和Hive.
  软件版本:
  Hadoop:Hadoop-2.7.1
  Hive:apache-hive-1.2.1-bin
  Tez:apache-tez-0.5.4-src 最新的0.7的tez版本编译有些问题,这个版本的是可以通过的
  Tez 编译方法:(只需要在一个节点安装tez就好,配置也是只在一个节点配置就OK)
  1.cd apache-tez-0.5.4-src
  2.vim pom.xml  在这里面找到Hadoop的版本,改成自己集群的Hadoop版本
  3.mvn compile
  4.mvn  clean package -Dtar -DskipTests=true -Dmaven.javadoc.skip=true
  5.编译成功后将在/apache-tez-0.5.4-src/tez-dist/target 路径下发现tez-0.5.4.tar.gz  
  6.解压tez-0.5.4.tar.gz 会发现如下文件
DSC0000.jpg

  7.在Hadoop_HOME的share文件下建立文件夹tez,将上图的tez的文件放进新建文件中
  mv tez-0.5.4.tar.gz   $Hadoop_HOME/share/tez  之后  tar -zxvf tez-0.5.4.tar.gz && rm -fr tez-0.5.4.tar.gz
  8.将解压的tez上传到HDFS hadoop dfs -mkdir /tez
  hadoop dfs -put tez/* /tez/
  9.修改相关配置:
  在  $Hadoop_HOME/etc/hadoop 中增加  tez-site.xml
  tez.lib.uris的两个路径分别是解压后tez的两个路径
  如果你的hadoop是2.2.0的增加如下:
  <configuration>  
    <property>  
        <name>tez.lib.uris</name>  
       <value>/tez/lib,/tez/</value>  
    </property>  
</configuration>

  要是2.6.0以上的增加如下:
  <property>  
    <name>tez.lib.uris</name>  
    <value>${fs.default.name}/tez,${fs.default.name}/tez/lib/</value>  
</property>
<property>
    <name>tez.am.resource.memory.mb</name>
    <value>1024</value>
</property>

  10.将mapre-site.xml中的
  mapreduce.framework.name的&#26684;式从yarn改为yarn-tez

  <property>
         <name>mapreduce.framework.name</name>
         <value>yarn-tez</value>
</property>

  11.将hadoop-env.sh 中添加如下:
  export TEZ_CONF_DIR=$HADOOP_HOME/etc/hadoop/tez-site.xml
  export TEZ_JARS=$HADOOP_HOME/share/tez
export HADOOP_CLASSPATH=${CLASSPATH}:$TEZ_CONF_DIR:$TEZ_JARS/*:$TEZ_JARS/lib/*

  12.之后重新启动Hadoop
  运行随便一个example例子则可,网页信息如下:
   DSC0001.jpg

  已经不是mapreduce而是TEZ的形式了
  而Hive运行成功如下:
  首先要进入hive
  选择运行&#26684;式:
  set hive.execution.engine=tez;

之后运行sql语句就可以
  运行结果如下:
DSC0002.jpg

  

  之后提供下编译好的tez的包,免得编译不过的同学停在编译上
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137812-1-1.html 上篇帖子: windows7 64位编译hadoop2.7.1 下篇帖子: hadoop-2.2.0+spark1.1.0安装过程
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表