该爬虫主要实现的功能是抓取糗事百科里面的一些段子。
urllib2可以用urllib2.openurl中设置Request参数,来修改Header头。如果你访问一个网站,想更改User Agent (可以伪装你的浏览器),你就要用urllib2。
urllib支持设置编码的函数,urllib.urlencode,在模拟登陆的时候,经常要post编码之后的参数,所以要想不使用第三方库完成模拟登录 ,你就需要使用urllib。但由于该网站禁止抓取,只能使用urllib2。
BeautifulSoup模块是用Python写的一个HTML/XML的解析器,它可以很好的处理不规范标记并生成剖析树(parse tree)。 它提供简单又常用的导航(navigating),搜索以及修改剖析树的操作。
至于其中的一个输入功能,可有可无。经过测试,该爬虫能实现对网站内大部分栏目进行抓取,只要简单修改URL即可。
# coding:utf-8
import time
import random
import urllib2
from bs4 import BeautifulSoup
#引入 beautifulsoup模块
#p = 1
#定义 页
url = 'http://www.qiushibaike.com/text/page/' #定义header
my_headers = [
'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0',
'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)',
'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0)',
'ELinks/0.12pre5 (textmode; Linux; -)'
]
#获取网页内容
def get_con(url, headers):
random_header = random.choice(headers)
req = urllib2.Request(url)
req.add_header('User-Agent', random_header)
req.add_header('Host', 'www.qiushibaike.com')
req.add_header(
'Referer', 'http://www.qiushibaike.com/')
req.add_header('GET', 'url')
content = urllib2.urlopen(req).read()
return content
#读取每一条信息
def get_txt(haha):
soup = BeautifulSoup(haha)
all_txt = soup.find_all('div', class_="content")
i = 1
for txt in all_txt:
cont = str(txt)
head = cont.find(r'class="content"')
end = cont.find(r'</div', head)
con = cont[head + 16:end]
print str(i), con
i = i + 1
time.sleep(3)
#根据输入的数字,确定打印起始页,如果取消该功能则需要定义p。
page = raw_input("Please input a number:")
p = int(page)
#使用while循环打印出所有信息
while p < 36:
haha = get_con(url + str(p) + '?s=4796159', my_headers)
print get_txt(haha)
print "这是第" + str(p) + "页"
p = p + 1
正在学习中,正在不断完善中...
运维网声明
1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网 享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com