设为首页 收藏本站
查看: 1916|回复: 0

[经验分享] hadoop中实现java网络爬虫

[复制链接]

尚未签到

发表于 2017-12-17 19:18:44 | 显示全部楼层 |阅读模式
  这一篇网络爬虫的实现就要联系上大数据了。在前两篇java实现网络爬虫和heritrix实现网络爬虫的基础上,这一次是要完整的做一次数据的收集、数据上传、数据分析、数据结果读取、数据可视化。
  需要用到
  Cygwin:一个在windows平台上运行的类UNIX模拟环境,直接网上搜索下载,并且安装;
  Hadoop:配置Hadoop环境,实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS,用来将收集的数据直接上传保存到HDFS,然后用MapReduce分析;
  Eclipse:编写代码,需要导入hadoop的jar包,以可以创建MapReduce项目;
  Jsoup:html的解析jar包,结合正则表达式能更好的解析网页源码;
  ----->
  目录:
  1、配置Cygwin
  2、配置Hadoop黄静
  3、Eclipse开发环境搭建
  4、网络数据爬取(jsoup)
  -------->
  1、安装配置Cygwin
  从官方网站下载Cygwin 安装文件,地址:https://cygwin.com/install.html
  下载运行后进入安装界面。
  安装时直接从网络镜像中下载扩展包,至少需要选择ssh和ssl支持包
  安装后进入cygwin控制台界面,
  运行ssh-host-config命令,安装SSH
  输入:no,yes,ntsec,no,no
  注意:win7下需要改为yes,yes,ntsec,no,yes,输入密码并确认这个步骤
  完成后会在windows操作系统中配置好一个Cygwin sshd服务,启动该服务即可。
DSC0000.png

  然后要配置ssh免密码登陆
  重新运行cygwin。
  执行ssh localhost,会要求使用密码进行登陆。
  使用ssh-keygen命令来生成一个ssh密钥,一直回车结束即可。

  生成后进入.ssh目录,使用命令:cp>  之后使用exit退出即可。
  重新进入系统后,通过ssh localhost就可以直接进入系统,不需要再输入密码了。
  2、配置Hadoop环境
  修改hadoop-env.sh文件,加入JDK安装目录的JAVA_HOME位置设置。
  # The java implementation to use.  Required.
  export JAVA_HOME=/cygdrive/c/Java/jdk1.7.0_67
  如图注意:Program Files缩写为PROGRA~1
DSC0001.png

  修改hdfs-site.xml,设置存放副本为1(因为配置的是伪分布式方式)
  <configuration>
  <property>
  <name>dfs.replication</name>
  <value>1</value>
  </property>
  </configuration>
  注意:此图片多加了一个property,内容就是解决可能出现的权限问题!!!
  HDFS:Hadoop 分布式文件系统
  可以在HDFS中通过命令动态对文件或文件夹进行CRUD
  注意有可能出现权限的问题,需要通过在hdfs-site.xml中配置以下内容来避免:
  <property>
  <name>dfs.permissions</name>
  <value>false</value>
  </property>
DSC0002.png

  修改mapred-site.xml,设置JobTracker运行的服务器与端口号(由于当前就是运行在本机上,直接写localhost 即可,端口可以绑定任意空闲端口)
  <configuration>
  <property>
  <name>mapred.job.tracker</name>
  <value>localhost:9001</value>
  </property>
  </configuration>
  配置core-site.xml,配置HDFS文件系统所对应的服务器与端口号(同样就在当前主机)
  <configuration>
  <property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
  </property>
  </configuration>
  配置好以上内容后,在Cygwin中进入hadoop目录
DSC0003.png

  在bin目录下,对HDFS文件系统进行格式化(第一次使用前必须格式化),然后输入启动命令:
DSC0004.png

DSC0005.png

  3、Eclipse开发环境搭建
  这个在我写的博客  大数据【二】HDFS部署及文件读写(包含eclipse hadoop配置)  http://www.cnblogs.com/1996swg/p/7286136.html  中给出大致配置方法。不过此时需要完善一下。
  将hadoop中的hadoop-eclipse-plugin.jar支持包拷贝到eclipse的plugin目录下,为eclipse添加Hadoop支持。
  启动Eclipse后,切换到MapReduce界面。
  在windows工具选项选择showviews的others里面查找map/reduce  locations。
  在Map/Reduce Locations窗口中建立一个Hadoop Location,以便与Hadoop进行关联。
DSC0006.png

DSC0007.png

DSC0008.png

  注意:此处的两个端口应为你配置hadoop的时候设置的端口!!!
  完成后会建立好一个Hadoop Location
DSC0009.png

  在左侧的DFS Location中,还可以看到HDFS中的各个目录
DSC00010.png

  并且你可以在其目录下自由创建文件夹来存取数据。
  下面你就可以创建mapreduce项目了,方法同正常创建一样。
  4、网络数据爬取
  现在我们通过编写一段程序,来将爬取的新闻内容的有效信息保存到HDFS中。
  此时就有了两种网络爬虫的方法:其一就是利用heritrix工具获取的数据;
  其一就是java代码结合jsoup编写的网络爬虫。
  方法一的信息保存到HDFS:
  直接读取生成的本地文件,用jsoup解析html,此时需要将jsoup的jar包导入到项目中
  

package org.liky.sina.save;  

  

//这里用到了JSoup开发包,该包可以很简单的提取到HTML中的有效信息  
import java.io.File;
  
import org.apache.hadoop.conf.Configuration;
  
import org.apache.hadoop.fs.FSDataOutputStream;
  
import org.apache.hadoop.fs.FileSystem;
  
import org.apache.hadoop.fs.Path;
  
import org.jsoup.Jsoup;
  
import org.jsoup.nodes.Document;
  
import org.jsoup.nodes.Element;
  
import org.jsoup.select.Elements;
  


  
public>  

  private static Configuration conf = new Configuration();
  

  private static FileSystem fs;
  

  private static Path path;
  

  private static int count = 0;
  

  public static void main(String[] args) {
  parseAllFile(new File(
  "E:/heritrix-1.12.1/jobs/sina_news_job_02-20170814013255352/mirror/"));
  }
  

  public static void parseAllFile(File file) {
  // 判断类型
  if (file.isDirectory()) {
  // 文件夹
  File[] allFile = file.listFiles();
  if (allFile != null) {
  for (File f : allFile) {
  parseAllFile(f);
  }
  }
  } else {
  // 文件
  if (file.getName().endsWith(".html")
  || file.getName().endsWith(".shtml")) {
  parseContent(file.getAbsolutePath());
  }
  }
  }
  

  public static void parseContent(String filePath) {
  try {
  //用jsoup的方法读取文件路径
  Document doc = Jsoup.parse(new File(filePath), "utf-8");
  //读取标题

  String>  Elements descElem = doc.getElementsByAttributeValue("name",
  "description");
  Element descE = descElem.first();
  // 读取内容
  String content = descE.attr("content");
  

  if (title != null && content != null) {
  //通过Path来保存数据到HDFS中
  path = new Path("hdfs://localhost:9000/input/"
  + System.currentTimeMillis() + ".txt");
  

  fs = path.getFileSystem(conf);
  

  // 建立输出流对象
  FSDataOutputStream os = fs.create(path);
  // 使用os完成输出
  os.writeChars(title + "\r\n" + content);
  

  os.close();
  

  count++;
  

  System.out.println("已经完成" + count + " 个!");
  }
  

  } catch (Exception e) {
  e.printStackTrace();
  }
  }
  
}
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425110-1-1.html 上篇帖子: Apache Hadoop集群离线安装部署(二) 下篇帖子: hadoop streaming anaconda python 计算平均值
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表