设为首页 收藏本站
查看: 5925|回复: 0

[经验分享] hadoop的dfs工具类一个【原创】

[复制链接]

尚未签到

发表于 2015-7-12 12:38:06 | 显示全部楼层 |阅读模式
  开始没搞定插件问题,就弄了个dsf操作类,后面搞定了插件问题,这玩意也就聊胜于无了,还是丢这里算了。
  首先是一个配置,ztool.hadoop.properties



hadoop.home.dir=G:/hadoop/hadoop-2.4.1
hadoop.user.name=hadoop
hadoop.server.ip=192.168.117.128
hadoop.server.hdfs.port=9000
  前面两个属性后面代码会有说明的。
  属性文件的读取,方法多了,一般用commons-configuration包,我是自己把这个再整了一次,加了些自动处理,这个代码中可以无视,直接把代码中的那部分改成普通引用就好了。
  logger部分,用了logback,也是处理了一下,处理了其在linux下会莫名其妙找不到配置文件的问题。这里就不放出代码了,直接把代码中的那部分改成普通引用就好了,我就不改了。
  工具类代码如下



package com.cnblogs.zxub.hadoop.dfs;
import java.io.IOException;
import java.net.URI;
import org.apache.commons.configuration.PropertiesConfiguration;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.mapred.JobConf;
import org.slf4j.Logger;
import com.cnblogs.zxub.util.logger.ZLoggerFactory;
import com.cnblogs.zxub.util.properties.PropertiesLoader;
public class DfsUtil {
private static final Logger logger = ZLoggerFactory
.getLogger(DfsUtil.class);
private final PropertiesConfiguration props = PropertiesLoader
.getConfiguration("ztool.hadoop");
private Configuration config = null;
private String hdfsPath = null;
private String baseDir = null;
public DfsUtil(String hdfs, Configuration config) {
// windows下设置HADOOP_HOME后,还可能找不到winutils.exe,直接自己写进去程序算了
System.setProperty("hadoop.home.dir",
this.props.getString("hadoop.home.dir"));
// 设置与dfs服务通信的用户名,省得换当前用户名,也不改配置关闭权限控制了
System.setProperty("HADOOP_USER_NAME",
this.props.getString("hadoop.user.name"));
this.hdfsPath = (hdfs == null) ? "hdfs://"
+ this.props.getString("hadoop.server.ip") + ":"
+ this.props.getString("hadoop.server.hdfs.port") + "/" : hdfs;
if (config == null) {
JobConf conf = new JobConf(DfsUtil.class);
conf.setJobName("HdfsDAO");
config = conf;
}
this.config = config;
}
public DfsUtil(Configuration conf) {
this(null, conf);
}
public DfsUtil() {
this(null, null);
}
public String getBaseDir() {
return this.baseDir;
}
public void setBaseDir(String baseDir) {
this.baseDir = baseDir;
}
public String getHdfsPath() {
return this.hdfsPath;
}
public Configuration getConfig() {
return this.config;
}
private String standardPath(String path) {
if (this.baseDir == null) {
this.baseDir = "/";
}
if (this.baseDir.indexOf("/") != 0) {
this.baseDir = "/" + this.baseDir;
}
if (this.baseDir.lastIndexOf("/") == this.baseDir.length() - 1) {
this.baseDir = this.baseDir.replaceFirst("/$", "");
}
if (path.indexOf("/") != 0) {
path = "/" + path;
}
path = this.baseDir + path;
if (path.lastIndexOf("/") == path.length() - 1) {
path = path.replaceFirst("/$", "");
}
if (path.isEmpty()) {
path = "/";
}
return path;
}
public void ll(String folder) throws IOException {
folder = this.standardPath(folder);
Path path = new Path(folder);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
FileStatus[] list = fs.listStatus(path);
System.out.println("ll: " + folder);
for (FileStatus f : list) {
System.out.printf("name: %s, folder: %s, size: %d\n", f.getPath(),
f.isDirectory(), f.getLen());
}
fs.close();
}
public void mkdirs(String folder) throws IOException {
folder = this.standardPath(folder);
Path path = new Path(folder);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
if (!fs.exists(path)) {
fs.mkdirs(path);
logger.info("create: {}.", folder);
} else {
logger.warn("folder [{}] already exists, mkdirs failed.", folder);
}
fs.close();
}
public void rm(String file) throws IOException {
file = this.standardPath(file);
Path path = new Path(file);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
fs.deleteOnExit(path);
logger.info("delete: {}.", file);
fs.close();
}
public void newFile(String file, String content) throws IOException {
file = this.standardPath(file);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
byte[] buff = content.getBytes();
FSDataOutputStream os = null;
try {
os = fs.create(new Path(file));
os.write(buff, 0, buff.length);
logger.info("create: {}.", file);
} finally {
if (os != null) {
os.close();
}
}
fs.close();
}
public void scp(String local, String remote) throws IOException {
remote = this.standardPath(remote);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
fs.copyFromLocalFile(new Path(local), new Path(remote));
logger.info("copy: from [{}] to [{}]", local, remote);
fs.close();
}
public void download(String remote, String local) throws IOException {
remote = this.standardPath(remote);
Path path = new Path(remote);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
fs.copyToLocalFile(path, new Path(local));
logger.info("download: from [{}] to [{}]", remote, local);
fs.close();
}
public void cat(String remote) throws IOException {
remote = this.standardPath(remote);
Path path = new Path(remote);
FileSystem fs = FileSystem.get(URI.create(this.getHdfsPath()),
this.getConfig());
FSDataInputStream fsdis = null;
System.out.println("cat: " + remote);
try {
fsdis = fs.open(path);
IOUtils.copyBytes(fsdis, System.out, 4096, false);
} finally {
IOUtils.closeStream(fsdis);
fs.close();
}
}
public static void main(String[] args) throws IOException {
DfsUtil hdfs = new DfsUtil();
// hdfs.setBaseDir("/test");
// hdfs.mkdirs("/debug_in");
// hdfs.newFile("/test.txt", "测试");
// hdfs.rm("/test.txt");
// hdfs.rm("/test");
// hdfs.scp("c:/q.txt", "/");
hdfs.ll("/");
// hdfs.download("/test.txt", "c:/t.txt");
// hdfs.cat("q.txt");
// hdfs.scp("c:/din/f1.txt", "debug_in");
// hdfs.scp("c:/din/f2.txt", "debug_in");
    }
}
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85834-1-1.html 上篇帖子: Hadoop学习笔记—6.Hadoop Eclipse插件的使用 下篇帖子: [hadoop源码阅读][4]-org.apache.hadoop.io.compress系列1-认识解码器/编码器
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表