设为首页 收藏本站
查看: 948|回复: 0

[经验分享] python爬虫学习小程序

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-4-19 21:23:57 | 显示全部楼层 |阅读模式
#coding:utf-8
#-------------------------------------------------------------------------------
# Name:        模块1
# Purpose:
#
# Author:      mrwang
#
# Created:     18/04/2014
# Copyright:   (c) mrwang 2014
# Licence:     <your licence>
#-------------------------------------------------------------------------------
import urllib
def main():
    url = 'http://xxxxxxx.xx'
    html = urllib.urlopen(url)
    # print html.read() #读取内容
    # print html.read().decode('gbk').encode('utf-8') #乱码解决
    # print html.read().decode('gbk', 'ignore').encode('utf-8') #一个页面多个编码 加ignore 忽略无法显示的字符
    # print html.info() #查看网页头部信息
    '''
    Connection: close
    Date: Fri, 18 Apr 2014 03:13:46 GMT
    Server: Microsoft-IIS/6.0
    MicrosoftOfficeWebServer: 5.0_Pub
    pragma: no-cache
    cache-control: private
    Content-Length: 50853
    Content-Type: text/html
    Expires: Thu, 17 Apr 2014 03:13:44 GMT
    Set-Cookie: web%5Fid=9952508807; path=/
    Set-Cookie: ASPSESSIONIDQCTQRBQA=NJFIJEBAIFPPLGFKELICDDEL; path=/
    Cache-control: no-cache
    '''
    # print html.getcode() #返回访问状态码
    # print html.geturl() #返回网页
    # urllib.urlretrieve(url, "c:\\abc.txt") #下载网页
    # html.close() #关闭连接
    '''
    urllib.urlretrieve 方法使用
    1 传入网址
    2 传入本地保存路径文件名
    3 一个函数调用,我们可以任意定义这个函数,但是这个函数一定要有三个参数
        参数1 到目前为止传递的数据块数量
        参数2 每个数据块的大小,单位byte,字节
        参数3 获取的文件的大小 有时候会返回-1
    '''
    urllib.urlretrieve(url, 'C://a.html', callback)
def callback(a, b, c):
    '''
    @参数a 到目前为止传递的数据块数量
    @参数b 每个数据块的大小,单位byte,字节
    @参数c 获取的文件的大小 有时候会返回-1
    '''
    down_progress = 100.0 * a * b / c
    if down_progress > 100:
        down_progress = 100
    print "%.2f%%" % down_progress, #后面加上 , 就不会换行
    '''
    0.00% 16.11% 32.22% 48.33% 64.44% 80.55% 96.66% 100.00%
    '''
if __name__ == '__main__':
    main()


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-17831-1-1.html 上篇帖子: 查询日志连续错误30次的就自动封掉这个IP 下篇帖子: 使用Pyramid框架构建Python Web应用 python 程序
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表