设为首页 收藏本站
查看: 833|回复: 0

[经验分享] hadoop 初学者在eclipse中开发的问题

[复制链接]

尚未签到

发表于 2016-12-10 07:40:10 | 显示全部楼层 |阅读模式
   那最简单的IO说吧 在本地文件系统和HDFS文件系统中的IO操作
   下面这个例子是合并本地文件系统的目录下的文件 到HDFS文件系统
   public static void main(String[] args) throws IOException, URISyntaxException {
         //Hadoop resource configuration class
         Configuration conf=new Configuration();
         //get FileSystem's instance
         //call factory method FileSystem.get(Configuration conf)
         FileSystem hdfs=FileSystem.get(new URI("hdfs://127.0.0.1:9000"),conf);
         //local FileSystem's instance
         FileSystem local =FileSystem.getLocal(conf);
         //Path Object encode file and direcotory
         Path  inputDir=new Path("/home/hadoop/Documents"); //(args[0]);
         Path  hdfsFile=new Path("/mytest_example2.txt");
         //use the FileSystem's listStatus()method() to get  a list of files in a directory
         FileStatus[]  inputFiles=local.listStatus(inputDir);
         
         //create FSDataOutputStream
         FSDataOutputStream out=hdfs.create(hdfsFile);
         //loop local files and merge a new file 
         for(int i=0;i<inputFiles.length;i++)
         {
             //user the Path to request an FSDataInputStream object for reading in the file
             System.err.println(inputFiles.getPath().getName()+"-----------------");
             FSDataInputStream  in =local.open(inputFiles.getPath());
             byte [] buffer=new byte[256];
             int bytesRead=0;
             while ((bytesRead=in.read(buffer))>0)
             {
                  out.write(buffer, 0, bytesRead);                      
             }
             in.close();
         }
         out.close();    
    }

  以上的代码是可行的没有什么错误。但是如果是一下这样,就会报错前提呢在你的项目的classpath下也就是bin目录下没有hadoop的HDFS配置文件(core-site.xml和hdfs-site.xml)
  FileSystem hdfs=FileSystem.get(/*new URI("hdfs://127.0.0.1:9000"),*/conf);
  Path  hdfsFile=new Path("hdfs://127.0.0.1:9000/mytest_example2.txt");
  错误提示:
  log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main" java.lang.IllegalArgumentException: Wrong FS: hdfs://127.0.0.1:9000/, expected: file:///
    at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:646)
    at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:82)
    at org.apache.hadoop.fs.RawLocalFileSystem.mkdirsWithOptionalPermission(RawLocalFileSystem.java:513)
    at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:499)
    at org.apache.hadoop.fs.ChecksumFileSystem.mkdirs(ChecksumFileSystem.java:594)
    at org.apache.hadoop.fs.ChecksumFileSystem.create(ChecksumFileSystem.java:448)
    at org.apache.hadoop.fs.ChecksumFileSystem.create(ChecksumFileSystem.java:435)
    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:909)
    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:890)
    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:787)
    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:776)
    at com.liweichao.PutMerge.main(PutMerge.java:40)
  

     解决途径一个是在初始化Filesystem的时候
  1Configuration conf=new Configuration();
         //get FileSystem's instance
         //call factory method FileSystem.get(Configuration conf)

           //就会自动加载到hadoop的资源配置文件
         FileSystem hdfs=FileSystem.get(new URI("hdfs://127.0.0.1:9000"),conf);

  在有Path对象定位的具体目录
  Path  hdfsFile=new Path("/mytest_example2.txt");
  2:在你的项目的classpath下也就是bin目录下没有hadoop的HDFS配置文件(core-site.xml和hdfs-site.xml)

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312053-1-1.html 上篇帖子: 惊天大悲剧-Hadoop的rmr和trash 下篇帖子: 直接使用HADOOP-RPC的编码实例
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表