设为首页 收藏本站
查看: 854|回复: 0

[经验分享] hadoop shell命令远程提交

[复制链接]

尚未签到

发表于 2015-7-14 08:10:01 | 显示全部楼层 |阅读模式
hadoop shell命令远程提交
一,hadoop shell命令远程提交原理
    hadoop shell命令执行目前很多场景下面主要通过 Linux shell来交互操作,无论对于远程操作还是习惯于windows/web操作的开发人员而言,也是非常痛苦的事情。
    在hadoop安装包中的src\test\org\apache\hadoop\cli\util 目录中,CommandExecutor.java地实现方式或许对大家有一定启发。
    如下是一段hadoop dfsadmin 命令执行的过程。
public static int executeDFSAdminCommand(final String cmd, final String namenode) {
      exitCode = 0;
      ByteArrayOutputStream bao = new ByteArrayOutputStream();
      PrintStream origOut = System.out;
      PrintStream origErr = System.err;
      System.setOut(new PrintStream(bao));
      System.setErr(new PrintStream(bao));
      DFSAdmin shell = new DFSAdmin();
      String[] args = getCommandAsArgs(cmd, "NAMENODE", namenode);
      cmdExecuted = cmd;
      try {
        ToolRunner.run(shell, args);
      } catch (Exception e) {
        e.printStackTrace();
        lastException = e;
        exitCode = -1;
      } finally {
        System.setOut(origOut);
        System.setErr(origErr);
      }
      commandOutput = bao.toString();
      return exitCode;
  }
   
    在开始阶段,通过System.setOut和System.setErr来设置当前应用程序的标准输出和错误输出流方式是ByteArrayOutputStream。
    初始化DFSAdmin shell之后,调用ToolRunner.run方法运行 args的命令参数。
    当调用完成之后,重新设置标准输出和标准错误输出的方式为默认方式。
    DFSAdmin对象类似于hadoop shell命令的 "hadoop dfsadmin "
    MRAdmin对象类似于hadoop shell命令的 "hadoop mradmin "
    FsShell对象类似于hadoop shell命令的 "hadoop fs "

二,利用内置jetty方式,开发jetty servlet来实现一个基于web远程方式提交hadoop shell命令的基本操作。
    1, 设计一个html页面向servlet提交命令参数,如下图:
DSC0000.jpg
    2,servlet程序编写,如下:
   
        PrintWriter writer=response.getWriter();
        response.setContentType("text/html");
        if(request.getParameter("select_type")==null){
            writer.write("select is null");
            return;
        }
        if(request.getParameter("txt_command")==null){
            writer.write("command is null");
            return;
        }
        String type=request.getParameter("select_type");
        String command=request.getParameter("txt_command");
        ByteArrayOutputStream bao = new ByteArrayOutputStream();
        PrintStream origOut = System.out;
        PrintStream origErr = System.err;
        System.setOut(new PrintStream(bao));
        System.setErr(new PrintStream(bao));
        if(type.equals("1")){
            DFSAdmin shell = new DFSAdmin();
            String[] items=command.trim().split(" ");
            try{
                ToolRunner.run(shell,items);
            }
            catch (Exception e) {
                e.printStackTrace();
            }
            finally{
                System.setOut(origOut);
                System.setErr(origErr);
            }
            writer.write(bao.toString().replaceAll("\n", ""));
        }
        else if(type.equals("2")){
            MRAdmin shell = new MRAdmin();
            String[] items=command.trim().split(" ");
            try{
                ToolRunner.run(shell,items);
            }
            catch (Exception e) {
                e.printStackTrace();
            }
            finally{
                System.setOut(origOut);
                System.setErr(origErr);
            }
            writer.write(bao.toString().replaceAll("\n", ""));
        }
        else if(type.equals("3")){
            FsShell shell = new FsShell();
            String[] items=command.trim().split(" ");
            try{
                ToolRunner.run(shell,items);
            }
            catch (Exception e) {
                e.printStackTrace();
            }
            finally{
                System.setOut(origOut);
                System.setErr(origErr);
            }
            writer.write(bao.toString().replaceAll("\n", ""));
        }
    上述程序主要用于简单处理dfsadmin,mradmin,fs等hadoop shell,并且最终以字符串打印输出到客户端
   
    简单测试 -report的结果,截取部分图片如下:
Configured Capacity: 7633977958400 (6.94 TB)
Present Capacity: 7216439562240 (6.56 TB)
DFS Remaining: 6889407496192 (6.27 TB)
DFS Used: 327032066048 (304.57 GB)
DFS Used%: 4.53%
Under replicated blocks: 42
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 4 (4 total, 0 dead)
Name: 10.16.45.226:50010
Decommission Status : Normal
Configured Capacity: 1909535137792 (1.74 TB)
DFS Used: 103113867264 (96.03 GB)
Non DFS Used: 97985679360 (91.26 GB)
DFS Remaining: 1708435591168(1.55 TB)
DFS Used%: 5.4%
DFS Remaining%: 89.47%
Last contact: Wed Mar 21 14:37:24 CST 2012
   
      上述代码利用jetty内嵌方式开发,运行时候还需要加载hadoop 相关依赖jar以及hadoop config文件,如下图所示意:


#!/bin/sh
CLASSPATH="/usr/local/hadoop/conf"
for f in $HADOOP_HOME/hadoop-core-*.jar; do
  CLASSPATH=${CLASSPATH}:$f;
done
# add libs to CLASSPATH
for f in $HADOOP_HOME/lib/*.jar; do
  CLASSPATH=${CLASSPATH}:$f;
done
for f in $HADOOP_HOME/lib/jsp-2.1/*.jar; do
  CLASSPATH=${CLASSPATH}:$f;
done
echo $CLASSPATH
java -cp "$CLASSPATH:executor.jar" RunServer  
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86371-1-1.html 上篇帖子: 彻底解决hadoop-0.20.203.0-eclipse-plugin插件安装 下篇帖子: hadoop Namenode和DataNode架构分析
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表