设为首页 收藏本站
查看: 774|回复: 0

[经验分享] 黄聪:使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)

[复制链接]

尚未签到

发表于 2015-4-25 05:16:30 | 显示全部楼层 |阅读模式
  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。
  一、从HTML文档中提取链接
  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。


  import HTMLParser
  import urllib
  class parseLinks(HTMLParser.HTMLParser):
  def handle_starttag(self, tag, attrs):
  if tag == 'a':
  for name,value in attrs:
  if name == 'href':
  print value
  print self.get_starttag_text()
  lParser = parseLinks()
  lParser.feed(urllib.urlopen("http://www.python.org/index.html").read())  处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。
  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的例子


  import HTMLParser
  import urllib
  import sys
  #定义HTML解析器

  class parseLinks(HTMLParser.HTMLParser):
  def handle_starttag(self, tag, attrs):
  if tag == 'a':
  for name,value in attrs:
  if name == 'href':
  print value
  print self.get_starttag_text()
  #创建HTML解析器的实例

  lParser = parseLinks()
  #打开HTML文件

  lParser.feed(urllib.urlopen( /
  "http://www.python.org/index.html").read())
  lParser.close()  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。
  二、从HTML文档中提取图像
  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。


  import HTMLParser
  import urllib
  def getImage(addr):
  u = urllib.urlopen(addr)
  data = u.read()
  class parseImages(HTMLParser.HTMLParser):
  def handle_starttag(self, tag, attrs):
  if tag == 'img':
  for name,value in attrs:
  if name == 'src':
  getImage(urlString + "/" + value)
  u = urllib.urlopen(urlString)
  lParser.feed(u.read())  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:


  import HTMLParser
  import urllib
  import sys
  urlString = "http://www.python.org"
  #把图像文件保存至硬盘

  def getImage(addr):
  u = urllib.urlopen(addr)
  data = u.read()
  splitPath = addr.split('/')
  fName = splitPath.pop()
  print "Saving %s" % fName
  f = open(fName, 'wb')
  f.write(data)
  f.close()
  #定义HTML解析器

  class parseImages(HTMLParser.HTMLParser):
  def handle_starttag(self, tag, attrs):
  if tag == 'img':
  for name,value in attrs:
  if name == 'src':
  getImage(urlString + "/" + value)
  #创建HTML解析器的实例

  lParser = parseImages()
  #打开HTML文件

  u = urllib.urlopen(urlString)
  print "Opening URL/n===================="
  print u.info()
  #把HTML文件传给解析器

  lParser.feed(u.read())
  lParser.close()  上述代码的运行结果如下所示:


  Opening URL
  ====================
  Date: Fri, 26 Jun 2009 10:54:49 GMT
  Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_ssl/2.2.9 OpenSSL/0.9.8g mod_wsgi/2.3 Python/2.5.2
  Last-Modified: Thu, 25 Jun 2009 09:44:54 GMT
  ETag: "105800d-46e7-46d29136f7180"
  Accept-Ranges: bytes
  Content-Length: 18151
  Connection: close
  Content-Type: text/html
  Saving python-logo.gif
  Saving trans.gif
  Saving trans.gif
  Saving afnic.fr.png  三、从HTML文档中提取文本
  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。


  import HTMLParser
  import urllib
  class parseText(HTMLParser.HTMLParser):
  def handle_data(self, data):
  if data != '/n':
  urlText.append(data)
  lParser = parseText()
  lParser.feed(urllib.urlopen( /
  http://docs.python.org/lib/module-HTMLParser.html).read())  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:


  import HTMLParser
  import urllib
  urlText = []
  #定义HTML解析器

  class parseText(HTMLParser.HTMLParser):
  def handle_data(self, data):
  if data != '/n':
  urlText.append(data)
  #创建HTML解析器的实例

  lParser = parseText()
  #把HTML文件传给解析器

  lParser.feed(urllib.urlopen( /
  “http://docs.python.org/lib/module-HTMLParser.html” /
  ).read())
  lParser.close()
  for item in urlText:
  print item  上面代码的运行输出过长,在此略过
  
  四、从HTML文档中提取Cookies
  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。


  import urllib2
  import cookielib
  from urllib2 import urlopen, Request
  cJar = cookielib.LWPCookieJar()
  opener=urllib2.build_opener( /
  urllib2.HTTPCookieProcessor(cJar))
  urllib2.install_opener(opener)
  r = Request(testURL)
  h = urlopen(r)
  for ind, cookie in enumerate(cJar):
  print "%d - %s" % (ind, cookie)
  cJar.save(cookieFile)  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。
  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。
  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。
  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。
  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。


  import os
  import urllib2
  import cookielib
  from urllib2 import urlopen, Request
  cookieFile = "cookies.dat"
  testURL = 'http://maps.google.com/'
  #为cookie jar 创建实例

  cJar = cookielib.LWPCookieJar()
  #创建HTTPCookieProcessor的opener对象

  opener = urllib2.build_opener( /
  urllib2.HTTPCookieProcessor(cJar))
  #安装HTTPCookieProcessor的opener

  urllib2.install_opener(opener)
  #创建一个Request对象

  r = Request(testURL)
  #打开HTML文件

  h = urlopen(r)
  print "页面的头部/n======================"
  print h.info()
  print "页面的Cookies/n======================"
  for ind, cookie in enumerate(cJar):
  print "%d - %s" % (ind, cookie)
  #保存cookies

  cJar.save(cookieFile)  上述代码的运行结果如下所示:


  页面的头部
  ======================
  Cache-Control: private
  Content-Type: text/html; charset=ISO-8859-1
  Set-Cookie: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun, 26-Jun-2011 11:26:48 GMT; path=/; domain=.google.com
  Date: Fri, 26 Jun 2009 11:26:48 GMT
  Server: mfe
  Expires: Fri, 26 Jun 2009 11:26:48 GMT
  Transfer-Encoding: chunked
  Connection: close
  页面的Cookies
  ======================
  0 -  五、为HTML文档中的属性值添加引号
  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。


  import HTMLParser
  import urllib
  class parseAttrs(HTMLParser.HTMLParser):
  def handle_starttag(self, tag, attrs):
  . . .
  attrParser = parseAttrs()
  attrParser.init_parser()
  attrParser.feed(urllib.urlopen("test2.html").read())  这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。


  handle_starttag(tag, attrs)
  handle_charref(name)
  handle_endtag(tag)
  handle_entityref(ref)
  handle_data(text)
  handle_comment(text)
  handle_pi(text)
  handle_decl(text)
  handle_startendtag(tag, attrs)  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。
  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:


  import HTMLParser
  import urllib
  import sys
  #定义HTML解析器

  class parseAttrs(HTMLParser.HTMLParser):
  def init_parser (self):
  self.pieces = []
  def handle_starttag(self, tag, attrs):
  fixedAttrs = ""
  #for name,value in attrs:

  for name, value in attrs:
  fixedAttrs += "%s=/"%s/" " % (name, value)
  self.pieces.append("" % (tag, fixedAttrs))
  def handle_charref(self, name):
  self.pieces.append("&#%s;" % (name))
  def handle_endtag(self, tag):
  self.pieces.append("" % (tag))
  def handle_entityref(self, ref):
  self.pieces.append("&%s" % (ref))
  def handle_data(self, text):
  self.pieces.append(text)
  def handle_comment(self, text):
  self.pieces.append("" % (text))
  def handle_pi(self, text):
  self.pieces.append("" % (text))
  def handle_decl(self, text):
  self.pieces.append("" % (text))
  def parsed (self):
  return "".join(self.pieces)
  #创建HTML解析器的实例

  attrParser = parseAttrs()
  #初始化解析器数据

  attrParser.init_parser()
  #把HTML文件传给解析器

  attrParser.feed(urllib.urlopen("test2.html").read())
  #显示原来的文件内容

  print "原来的文件/n========================"
  print open("test2.html").read()
  #显示解析后的文件

  print "解析后的文件/n========================"
  print attrParser.parsed()
  attrParser.close()  我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:


原来的文件
========================



Web页面


Web页面清单
Python网站
本地页面



解析后的文件
========================



Web页面


Web页面清单
Python网站
本地页面


  六、小结
  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本文对您会有所帮助。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-60285-1-1.html 上篇帖子: 提升Python程序速度技巧汇总 下篇帖子: 使用python写的如何自动提交和抓取网页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表