设为首页 收藏本站
查看: 846|回复: 0

[经验分享] python 采集网页的问题

[复制链接]

尚未签到

发表于 2015-4-28 06:49:48 | 显示全部楼层 |阅读模式
  我想要采集一些网站的图片,网站的目录是这样的,有一个list页显示了图片页的链接地址,现在我想通过向程序提供该list页的网址,由程序来分析这个网址中某一部分中所有图片页的链接地址,然后把这些图片也得链接地址保存到一个列表中,再逐个打开这些地址,获得每一个图片网页中图片的链接地址,下载这些图片!   
  我使用HTMLParser模块来解析网页,但是如果我下载的网页编码是gb2312的话,就会出现错误了,我不知道怎么改变编码再将网页代码传递给HTMLParser才不会出错,求救!!!   
  另,这个程序应该是能够通过正则表达式来实现的,可惜我本来要采集的那个网页这几天好像被封了,现在给不了实例,郁闷啊!
Python code   
#!/usr/bin/env python
# -*- coding:gb2312 -*-
"""
要实现的功能是 根据提供的目录网页(list)分析其子页面
将其子页面的链接保存在一个列表中,然后循环下载这些子页面
分析这些子页面中的图片,下载保存到本地硬盘上
"""
import os,sys,HTMLParser
import urllib,re
import httplib,urlparse

class main():
def __init__(self):
self.anatext = "111222"    #保存截取出来的要分析的网页
def run(self):
global chdurllist
global picurllist
global urlstring
#先要求提供一个目录页地址:
parurl = raw_input("Please in the url of the website:")
#判断能否正常链接到该地址:
runn = self.httpExists(parurl)
#如果地址能够访问,进行解析,提取网页中的子网页地址
if runn == True:
from urlparse import urlparse
a = urlparse(parurl)
urlstring = a[0]+'://'+a[1]+'/'
"""
在这里控制整个程序的运行!
"""
parstartstr = ""   #list页采集开始处的代码
parendstr = ""     #list页采集结束处的代码
chdstartstr = ""  #图片页采集开始处的代码
chdendstr = ""                                      #图片页采集结束处的代码
self.paranalyze(parurl,parstartstr,parendstr)
lar = parselinks()
lar.feed(self.anatext)#____问题出现在这里____提供的参数不符合规格!
print "1"
for url in chdurllist:
self.paranalyze(url,chdstartstr,chdendstr)
lar.feed(self.anatext)
self.downpic()
lar.close

else:
print "The url you input can not link!\nPlease input another url:"
def paranalyze(self,url,anastart,anaend):
#开始解析网页了!先获取网页内容
webpage = urllib.urlopen(url)
webtext = webpage.read()
#print len(webtext)
#开始解析网页内容
a = webtext.find(anastart)
b = webtext.find(anaend)
#print webtext[a:b]
ab = webtext[a:b]
self.anatext = ab.decode("cp936")
webpage.close()

#开始下载图片urlretrieve
def downpic(self):
global chdurllist
global picurllist   
fildir = "c:\\123\\dmm\\"
a = len(picurllist[1])
filename = picurllist[1][a-4:]
i = 10
print '2'
if picurllist[0]!=picurllist[1]:
print '3'
for url in picurllist:
if httpExists(url):
print '4'
i += 1
urllib.urlretrieve(url,fildir+str(i)+filename)
else:
return False
else:
return False               
def httpExists(self,url):
host , path = urlparse.urlsplit(url)[1:3]
isok = False
try:
conn = httplib.HTTPConnection(host)
conn.request("HEAD",path)
resp = conn.getresponse()
if resp.status == 200:
isok = True
else:
isok = False
except Exception, e:
print e.__class__, e, url
return isok
#提取网页中文字链接的方法
class parselinks(HTMLParser.HTMLParser):
def handle_starttag(self,tag,attrs):
global chdurllist
global picurllist
global urlstring
if tag == 'a':
for name,value in attrs:
if name == 'href':
#print value
chdurllist.append(urlstring+value)

if tag == 'img':
for name,value in attrs:
if name == 'src' :
#print value
picurllist.append(value)

if __name__ == '__main__':
chdurllist = [] #保存子页面链接地址的列表
picurllist = [] #保存从子页面获得的图片地址   
urlstring = ""
"""
lParser = parselinks()
lParser.feed(urllib.urlopen("http://www.python.org/index.html").read())
lParser.close()   
"""
app = main()
app.run()

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-61304-1-1.html 上篇帖子: python垃圾回收机制 下篇帖子: python中and和or的用法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表