设为首页 收藏本站
查看: 1004|回复: 0

[经验分享] Python学习 - 使用BeautifulSoup来解析网页一:基础入门

[复制链接]

尚未签到

发表于 2015-12-2 10:39:14 | 显示全部楼层 |阅读模式
  写技术博客主要就是总结和交流的,如果文章用错,请指正啊!
  以前一直在使用SGMLParser,这个太费时间和精力了,现在为了毕业设计,改用BeautifulSoup来实现HTML页面的解析工作的。

一、字符的编码和解码
  和网页打交道,首先解决的就是web页面的编码方式,不幸的是不同网站的页面编码方式基本不相同,有的是gb2312,有的是utf-8,有的是gbk,下面是我查看我以后需要的网站源码后得出的web页面的编码方式:



di = { 'gb2312':['http://www.sina.com.cn','http://www.people.com.cn/','http://www.people.com.cn/'
,'http://www.163.com/','http://www.qq.com/'],
'gbk':['http://www.sohu.com'],
'utf-8':['http://www.huanqiu.com/','http://www.xinhuanet.com/']
}

  这个python字典,我会一直手动更新的。为什么需要手动更新呢?因为我不会动态的检测web页面的编码方式,虽然说HTTP的Header中有content的编码方式,即Content-Type这一项,但是上面的网站基本上都没有在Content-Type中表明编码方式,FQ看了一下谷歌,youtube和facebook,在Content-Type里面都表明了编码方式,一般都为utf-8。
  知道了编码方式,就要解码了,因为BeautifulSoup先将html页面全部转码为unicode的,所以在将html页面传入BeautifulSoup中的时候,先解码,如果html的字符编码为gb2312:



response = urllib2.urlopen(url).read().decode('gb2312','ignore')
bs = BeautifulSoup(response)
  如果你想将unicode字符编码为特定的编码方式:  



response = urllib2.urlopen(url).read().decode('gb2312','ignore').encode('utf-8')

  因为业务场景不一样,我只需要抓取部分网站的页面,所以我手动查看了上面几个网站的编码方式。当然有其它的方法了,见我在stackoverflow上的提问:http://stackoverflow.com/questions/28184863/how-to-decode-and-encode-web-page-with-python 。

二、解压
  很多网站为了减少流量,将页面压缩。常见的压缩方式为gzip,随便百度一下就可以收到解压gzip文件的代码:



def unzip(data):
import gzip
import StringIO
data = StringIO.StringIO(data)
gz = gzip.GzipFile(fileobj=data)
data = gz.read()
gz.close()
return data

  其它的压缩方式暂不讨论。

三、一个很丑陋的demo



# -*- coding: utf-8 -*-
'''
Created on 2015年1月28日
@author: zhang
'''
from bs4 import BeautifulSoup
result = {}
key_word = u'李克强'
def unzip(data):
import gzip
import StringIO
data = StringIO.StringIO(data)
gz = gzip.GzipFile(fileobj=data)
data = gz.read()
gz.close()
return data
def init_bs(url,encoding):
import urllib2
html_doc = ''
respone = urllib2.urlopen(url)
header = respone.info()
if 'Content-Encoding' in header:
if header['Content-Encoding'] == 'gzip':
html_doc = unzip(respone.read()).decode(encoding,'ignore')
else:
pass
else:
html_doc = respone.read().decode(encoding,'ignore')
return(BeautifulSoup(html_doc))
def get_target(soup):
for link in soup.find_all('a'):
text = link.get_text()
if text.find(key_word) != -1:
result[link.get('href')] = text

di = { 'gb2312':['http://www.sina.com.cn','http://www.people.com.cn/','http://www.people.com.cn/'
,'http://www.163.com/','http://www.qq.com/'],
'gbk':['http://www.sohu.com'],
'utf-8':['http://www.huanqiu.com/','http://www.xinhuanet.com/']
}
for k,v in di.iteritems():
for url in v:
soup = init_bs(url,'gb2312')
get_target(soup)

for k,v in result.iteritems():
print k,v

  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-146242-1-1.html 上篇帖子: Python学习笔记(迭代、模块扩展、GUI 、编码处理等) 下篇帖子: 【Python学习】指定两点地理位置经纬度的距离计算
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表