设为首页 收藏本站
查看: 973|回复: 0

[经验分享] python抓取网页

[复制链接]

尚未签到

发表于 2017-4-24 10:58:31 | 显示全部楼层 |阅读模式
import re
import io
import sys
import os
import time
import socket
import locale
import datetime
from urllib.request import urlopen
from urllib.parse import urlparse
#正则表达式
pattern1="""<a  href="(http:.*?)">博文目录</a>"""
prog1 = re.compile(pattern1)
pattern2="""<a title="(.*?)" target="_blank" href="(.*?)">.*?</a>"""
prog2=re.compile(pattern2)
pattern3="""<a href="([^"]+)" title="[^"]+">下一页"""
prog3=re.compile(pattern3)
pattern4="""<!--博文正文 begin -->[\\s\\S]*?<!-- 正文结束 -->"""
prog4=re.compile(pattern4)
pattern5="""(src="[^"]+"( real_src ="([^"]+)\"))"""
prog5=re.compile(pattern5)
def save_to_file(url,filename,blog_address):
"""url为博文地址,filename为要保存的文件名,默认后缀为html
"""
if os.path.exists(blog_address)==False:
os.makedirs(blog_address)
filename=ReplaceBadCharOfFileName(filename)
file_no=0
while os.path.isfile(blog_address+'/'+filename+'.html')==True:
filename=filename+'('+file_no.__str__()+')'
file_no+=1
url_file=urlopen(url)
t=b''
while True:
s=url_file.read(1024)
if not s:
break
t+=s     
t=t.decode('utf8')
url_file.close()
t=_filter(t)
if t is None:
raise Exception
#将图片保存到本地
result=prog5.findall(t)
i=1
for pic in result:
folder=blog_address+'/'+filename+'/'
pic_name='image'+i.__str__()+'.gif'
if os.path.exists(folder)==False:
os.makedirs(folder)
try:
url_file=urlopen(pic[2])
file = open(folder+pic_name,'wb')
while True:
s=url_file.read(1024)
if not s:
break
file.write(s)
file.close()
except:
print('噢,保存图片的时候出现问题了,跳过此张图片...')
print("Unexpected error:", sys.exc_info()[0],sys.exc_info()[1])
else:
print('保存图片成功...')
#替换正文中的图片地址
t=t.replace(pic[0],"src=\""+filename+"/"+pic_name+"\""+pic[1],1)
i=i+1
file=open(blog_address+'/'+filename+'.html','wb')
file.write(t.encode('utf8'))
file.close()
#提取文本中的正文部分
def _filter(t):
result=prog4.search(t)
if result is not None:
return '<html><head></head><body>'+result.group()+'</dody></html>'
else:
print('噢,提取正文出错了……')
return None
#去掉文件名的不合法字符
def ReplaceBadCharOfFileName(filename):
filename=filename.replace("&nbsp;","")
filename=filename.replace("\\", "")
filename=filename.replace("/", "")
filename=filename.replace(":", "")
filename=filename.replace("*", "")
filename=filename.replace("?", "")
filename=filename.replace("<", "")
filename=filename.replace(">", "")
filename=filename.replace("|", "")
filename=filename.replace("&","")
filename=filename.replace(";","")
return filename
#主函数
#准备阶段
blog_no=1#博文编号
begin=1#起始博文
end=0#结束博文
page=1#页码
saved=0#成功保存的篇数
timeout = 60*5#超时设为5分钟
socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置
blog_address=input("请输入您的博客地址(输入最后部分即可,比如您的博客地址是http://blog.sina.com.cn/xiaoshuai\
,只要输入xiaoshuai):")
begin=input('从第几篇开始:')   
begin=locale.atoi(begin)
while begin<=0:
begin=input('请输入大于0的数:')
begin=locale.atoi(begin)
end=input('到第几篇结束(到最后请输入0):')
end=locale.atoi(end)
while end<0:
end=input('请输入大于等于0的数:')
end=locale.atoi(end)
if end==0:
print('您的博客地址是:http://blog.sina.com.cn/'+blog_address+',保存第'+begin.__str__()+'篇到最\
后一篇博文')
else:
print('您的博客地址是:http://blog.sina.com.cn/'+blog_address+',保存第'+begin.__str__()+'篇到第'\
+end.__str__()+'篇的博文')
starttime = datetime.datetime.now()
request=urlopen('http://blog.sina.com.cn/'+blog_address)
text = request.read().decode('utf8')
request.close()
time.sleep(0.5)
#提取“博文目录”的url
result = prog1.search(text)
if result is not None:
print ('博文目录地址:',result.group(1))
url_file=urlopen(result.group(1))
text = url_file.read().decode('utf8')
url_file.close()
time.sleep(0.5)
else:
print('提取博文目录地址失败')
#终止程序运行
sys.exit()
#查找每一页的全部博文,分析、提取、保存
while True:
print('开始备份第',page,'页')
page+=1
result=prog2.findall(text)
for blog in result:
if blog_no<begin:
blog_no+=1
pass
elif end!=0 and blog_no>end:
break
else:
try:
save_to_file(blog[1],blog[0],blog_address)
except:
print('噢,保存第',blog_no,'篇博文',blog[0],'的时候出现问题了,跳过...')
blog_no+=1
print("Unexpected error:", sys.exc_info()[0],sys.exc_info()[1])
else:
print('成功保存了第',blog_no,'篇博文:',blog[0])
blog_no+=1
saved+=1
time.sleep(1)
#判断是否有下一页
result=prog3.search(text)
if result is not None:
url_file=urlopen(result.group(1))
text=url_file.read().decode('utf8')
url_file.close()
else:
break
print('博客备份完成!共备份',saved,'篇博文')
endtime = datetime.datetime.now()
print ('共用时:',endtime - starttime)
input('按回车键退出...')

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-368560-1-1.html 上篇帖子: Python抓取图片 下篇帖子: python字典排序
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表