设为首页 收藏本站
查看: 890|回复: 0

[经验分享] Python 爬虫

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-7-1 08:30:19 | 显示全部楼层 |阅读模式
#!/usr/bin/python
#coding=UTF-8

'''
爬虫 v 1.0 (L)
'''

import time
import sys
import re
#====================================
# 根据 Python 的版本选择需要加载的模块
#====================================
if (sys.version)[0] == '3':
    import urllib.request as urlreq
    import _thread as thread
else:
    import urllib2 as urlreq
    import thread as thread

class Spider:
    def __init__(self):
        self.pageidx = 1   # 标记页码
        self.items = []    # 存放正文内容
        self.read = False  # 存放是否继续 True:继续; False:停止
        self.restr = ''
        self.user_agent = ['Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)', '', ''] # UA 列表
        self.header = { 'User-Agent' : (self.user_agent)[0] }# 存放浏览器UA(防止网站限定header)

    #=========================================================
    # 功能: 获取网页内容(按规则)
    # 参数: self; url:页面地址;  recom:正则
    #=========================================================
    def GetItems(self, url, recom):
        request = urlreq.Request(url, headers = self.header)
        html = urlreq.urlopen(request).read()

        # 页面编码转换 (encode: unicode->其它; decode: 其它->unicode)
        uhtml = html.decode("UTF-8")

        # 根据规则从页面选定内容;
        return re.findall(recom, uhtml)

    #=========================================================
    # 功能: 加载网页内容
    # 参数: self;
    #=========================================================
    def LoadItems(self, url, recom):

        while self.read:
            # 判断当items中的内容不足两条时,请求下一页数据并存入items列表中
            if len(self.items) < 2:
                try:
                    uri = url.replace("$PX$", str(self.pageidx))
                    item = self.GetItems(uri, recom)
                    self.items.append(item)
                    self.pageidx += 1
                except:
                    print('[ ' + uri + ' ] 被外星人劫持[访问失败]....')
                    self.read = False
            else:
                time.sleep(1)

    #=========================================================
    # 功能: 现实网页内容(并接收用户输入)
    # 参数: self;
    #=========================================================
    def ShowItems(self, items, pidx = 1):
        for item in items:
            print(u'[%d]' % pidx, item[1], '\n', item[0].replace('\n', '').replace('<br/>', '\n'))
            print('-' * 70)
            option = input().upper()
            if option == 'Q':
                self.read = False
                return 9
            elif option == 'R':
                self.pageidx = 1 # 初始值
                return 0
        return 1

    #=========================================================
    # 功能: 现实网页内容(并接收用户输入)
    # 参数: self;
    #=========================================================
    def Launcher(self, url, recom):
        self.read = True
        pidx = self.pageidx

        print(u'正在加载中请稍候......\n', '=' * 70)

        thread.start_new_thread(self.LoadItems, (url, recom))

        while self.read:
            if self.items:
                item = self.items[0]
                del self.items[0]
                ret = self.ShowItems(item, pidx)
                if ret == 9:
                    print(u'即将推出阅读....')
                    break
                else:
                    pidx += ret



def usage():
    print(u"""
    ---------------------------------------------
    -   程序:糗百爬虫(阅读文章)
    -   版本:0.1
    -   作者:L
    -   日期:2015-06-30
    -   语言:Python 3.3.5
    -   操作:Q:退出阅读; R:刷新到第一页; 回车:阅读
    -   功能:按下回车依次浏览今日的糗百热点
    ---------------------------------------------
    """)
if __name__ == "__main__":
        usage()
         
        url = 'http://m.qiushibaike.com/hot/page/$PX$'
        # re.S是任意匹配模式(如:匹配换行符)
        recom = re.compile(r'<div class="content">(.*?)<!--(.*?)-->.*?</div>', re.S)
         
        input('浏览今日的糗百内容(任意键):')
        spider = Spider()
        spider.Launcher(url, recom)
        print('欢迎再次使用....')



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-82094-1-1.html 上篇帖子: python中的元类metaclass 下篇帖子: python 模块的安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表