设为首页 收藏本站
查看: 665|回复: 0

[经验分享] python爬虫技术总结

[复制链接]

尚未签到

发表于 2017-4-28 10:55:04 | 显示全部楼层 |阅读模式
  最近用python做爬虫研究了一段时间,感觉太好了,下面和大家分享一下
  依旧是以伯乐在线网站作为抓取的例子,从最新文章专栏抓取他们的文章,可以获取网站的分页来获取更多的内容下载打包起来。
  

  下面是代码:
  


import urllib2,urllib
import threading
from bs4 import BeautifulSoup
import re
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
num=1
class Get(threading.Thread):
def __init__(self,lock,link,list):
threading.Thread.__init__(self)
self.lock=lock
self.link=link
self.list=list
def filter_tags(self,htmlstr):
re_cdata=re.compile('//<!\[CDATA\[[^>]*//\]\]>',re.I)
re_script=re.compile('<\s*script[^>]*>[^<]*<\s*/\s*script\s*>',re.I)
re_style=re.compile('<\s*style[^>]*>[^<]*<\s*/\s*style\s*>',re.I)
re_p=re.compile('<P\s*?/?>')
re_h=re.compile('</?\w+[^>]*>')
re_comment=re.compile('<!--[^>]*-->')
s=re_cdata.sub('',htmlstr)
s=re_script.sub('',s)
s=re_style.sub('',s)
s=re_p.sub('\r\n',s)
s=re_h.sub('',s)
s=re_comment.sub('',s)
blank_line=re.compile('\n+')
s=blank_line.sub('\n',s)
return s
def run(self):
self.lock.acquire()
content=urllib2.urlopen(self.link).read()
g=self.filter_tags(content)
title=r'<h1>(.+)</h1>'
result=re.findall(title,content)
print "%s \n" %",".join(result)      
cn=r'<div class="entry">(.*)<!-- END .entry -->'
tem=re.findall(cn,content,re.S)
f=open('/home/tron/Python/code/'+'News'+'.txt','a+')
for j,cc in zip(result,tem):
f.write(j.encode("utf-8")+"\n"+self.filter_tags(cc)+"")
f.close()
if self.list<1:
global num
num+=1
if num<4:
main("http://blog.jobbole.com/all-posts/page/"+str(num)+"/")
else:
print "No More"
return
self.lock.release()
def main(info):
spuare=r'<div class="grid-8" id="archive">(.*)<!-- END .grid-8 -->'
#info="http://blog.jobbole.com/all-posts/"
content=urllib2.urlopen(info).read()
div=re.search(spuare,content,re.S)
link=r'http://blog.jobbole.com/\d{5}/'
result=re.findall(link,div.group())
result=set(result)
list=len(result)
lock=threading.Lock()
for i in result:
list-=1
Get(lock,i,list).start()
if __name__=="__main__":
main("http://blog.jobbole.com/all-posts/page/1/")
  我同样也是用了多线程来比较高效地获取网页内容。

filter_tags()函数是用来出去网页中的像是<p/><div/>等标签,否则打包下载之后会不适应阅读  我用这段代码获取了前三页的内容,并且只获得啦发布的文章的信息而屏蔽掉了右侧热门文章的信息,代码有冗余。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-370324-1-1.html 上篇帖子: Python-内置数据类型2 下篇帖子: 细说python 编码(转)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表