darkpoon 发表于 2015-4-20 12:00:35

第一个Python程序——博客自动访问脚本

动机
  今天有朋友写信说他认为自己的wordpress博客内显示的访问统计信息不正常,希望我能为他制造一些访问信息,供他对比。朋友提出的请求是在短时间内快速打开100个不同的博客页面,以便他从产生的访问量变化中理解博客访问数据。
  本人作为一个搞计算机的人,有把任何重复性劳动自动化的冲动,所以虽然点开100个网页的任务手工做并不复杂,但还是从一开始就彻底否定了。刚好想学Python很久了,于是就拿这次的小机会来学习一把,顺便记录下第一次的Python学习成果。
  本文使用Python 2.7.3实现了一个自动访问博客的脚本,涉及以下技术点:


[*]语言基础

[*]容器(线性表、字典)
[*]逻辑分支、循环
[*]控制台格式化输出


[*]HTTP客户端网络编程

[*]处理HTTP请求
[*]使用HTTP代理服务器


[*]Python正则表达式

总览
  自动访问博客页面这个操作实际上和网络爬虫做的事情差不多,基本流程如下:

  图1 博客自动访问器工作原理


[*]给访问器一个开始位置(例如博客首页URL)
[*]访问器将URL指向的网页爬回(爬回网页这个操作本身相当于在浏览器中打开页面)
[*]2中爬回的网页交给分析器分析。分析器分析后提取出其中的URL加入待访问URL列表,即URL库。然后从URL库中取出下一个要访问的页面URL
[*]循环2、3步,直到达到某一终止条件程序退出
  刚开始编程时,我们什么都没有,只有一个博客首页的URL。紧跟着这个URL需要解决的问题就是如何编程爬取URL指向的页面。爬取到了页面,才能算是访问了博客,也才能获得页面的内容,从而提取更多的URL,进行更进一步的爬取。
  这样一来就带来了如何根据URL获取页面信息的问题,要解决这个问题,需要用到HTTP客户端编程,这也是接下来一节解决的问题。

urllib2:HTTP客户端编程
  Python中可以实现HTTP客户端编程的库有好几个,例如httplib, urllib, urllib2等。使用urllib2是因为它功能强大,使用简单,并且可以很容易地使用HTTP代理。
  使用urllib2创建一个HTTP连接并获取页面非常简单,只需要3步:



import urllib2
opener = urllib2.build_opener()
file = opener.open(url)
content = file.read()
  content即为HTTP请求响应的报文体,即网页的HTML代码。如果需要设置代理,在调用build_opener()时传入一个参数即可:



opener = urllib2.build_opener(urllib2.ProxyHandler({'http': "localhost:8580"}))

  ProxyHandler函数接受一个字典类型的参数,其中key为协议名称,value为host与端口号。也支持带验证的代理,更多细节见官方文档。
  接下来要解决的问题就是从页面中分离出URL. 这就需要正则表达式。

正则表达式
  正则表达式相关的函数位于Python的re模块中,使用前需import re
  findall函数返回字符串中所有满足给定正则式的子串:



aelems = re.findall('
页: [1]
查看完整版本: 第一个Python程序——博客自动访问脚本