设为首页 收藏本站
查看: 783|回复: 0

[经验分享] python 测试网页

[复制链接]

尚未签到

发表于 2017-4-24 12:24:42 | 显示全部楼层 |阅读模式
·思路简介: 

  时间是关键, 如果能抓准服务器的时间, 可以说胜算将得到很大的提高, 如何抓取服务器时间? 我们知道在通过HTTP对服务器发起请求时, 在响应的服务器头文件中包含所请求网页的相关条件信息, 其中有个Date头域, 里面记录着相关的时间, 我们就通过这个来获取cnblogs的服务器时间。

#!/usr/bin/python
#-------------------------------------------------------------------------------
# Name:        GrabBook.py
# Purpose:
#
# Author:      Mr.Wid
#
# Created:     22-10-2012
# Copyright:   (c) Mr.Wid 2012
# Licence:     GNU GPL
#-------------------------------------------------------------------------------
import re
import time
import urllib
import urllib2
import httplib
import cookielib
username = 'mr_wid'               #你的用户名, 改为你的
password = 'xxxxxxxx'             #你的密码
#先定义好编码转换函数
def en(x):
return x.encode('utf-8')
def cn(x):
return x.decode('utf-8')
#获取cnblogs服务器时间
def GetCnblogsServerTime():
"""获取cnblogs服务器时间
GetCnblogsServerTime() -> list
NOTE: 原理是通过服务器头文件响应获取服务器时间
"""
conn = httplib.HTTPConnection( 'www.cnblogs.com' )
conn.request( 'GET', '/' )
response = conn.getresponse()
ts =  response.getheader('date')
ltime = time.strptime( ts[5:25], '%d %b %Y %H:%M:%S' )         #按照特定时间格式将字符串转换为时间类型
serverTime =  time.strftime( '%H:%M:%S',
time.localtime(time.mktime(ltime)+ 8*3600 )).split(':')    #将GMT时间转换为北京时间并以列表形式返回, -> [ hour, minute, second ]
return serverTime

#登录博客园
def cnblogs_login():
"""登录博客园
cnblogs_login() -> None
"""
params_post = urllib.urlencode({
'__EVENTTARGET': '',
'__EVENTARGUMENT': '',
'__VIEWSTATE': r'/wEPDwULLTE1MzYzODg2NzZkGAEFHl9fQ29udHJvbHNSZXF1aXJlUG9zdEJhY2tLZXlfXxYBBQtjaGtSZW1lbWJlcm1QYDyKKI9af4b67Mzq2xFaL9Bt',
'__EVENTVALIDATION': r'/wEWBQLWwpqPDQLyj/OQAgK3jsrkBALR55GJDgKC3IeGDE1m7t2mGlasoP1Hd9hLaFoI2G05',
'tbUserName':en(username),
'tbPassword':en(password),
'btnLogin':en('登录')
})
cookie=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
urllib2.install_opener(opener)
login_response=urllib2.urlopen('http://passport.cnblogs.com/login.aspx?',params_post)
#给大叔发表一条评论
def PuhsishContent( content ):
"""给大叔发表一条评论
PuhsishContent( string content ) -> None
"""
comment_post = urllib.urlencode({
'__VIEWSTATE':en('/wEPDwUJNDYwODU2NjU1ZGQ='),
'txbComment': en(content),
'btnSubmint': en('提交评论')
})
page = urllib2.urlopen( r'http://m.cnblogs.com/mobileAddComment.aspx?id=101461&entry=2733027', comment_post )
data = page.read()
page.close()
print cn( data )
#开始抢书
def PuhsishContentInTime():
luckHour = [ 10, 12, 14, 16, 18, 20 ]        #这是幸运小时数
cnblogs_login()                                 #登录博客园
while True:
serverTime = GetCnblogsServerTime()         #获取服务器时间
print serverTime
if int(serverTime[0]) in luckHour and int(serverTime[1]) == 59:     #当最新评论的分钟数为59分59秒时准备抢书
for i in range( int(serverTime[2]), 60 ):    #进入最后倒计时阶段
           time.sleep(1)
time.sleep(0.75)                    #在59分59秒750毫秒时开始提交评论, 可自行调节毫秒数, sleep参数单位为秒
PuhsishContent( '大叔我来抢书啦~抢抢抢抢抢......' )
print '抢书任务完成, 下一轮抢书任何将在55分钟后自动执行, 等待...'
time.sleep(55 * 60)                 #休息55分钟, 汤姆大叔说了, 连评无效
    #time.sleep(1)     #休息1秒再获取服务器时间

#执行抢书动作
PuhsishContentInTime()          #这次真可以慢慢挂这个抢书了, 挂三天说不定就真有了!
  在

time.sleep(0.75)                    #59分59秒后延迟750毫秒后开始抢书, 可自行调节毫秒数, sleep参数为秒


这行就是可自行调节的毫秒数, 输入小数表示毫秒级。
 
提示: 这里是使用了一个while True的死循环, 在获取时间是会产生大量的请求, 如果cnblogs一定时间内的请求数量有限制的话, 可以在while True里加上time.sleep(1)休息一秒再获取服务器时间, 对抢书的动作执行是没多大影响的, 在示例代码中我已将该句添加, 但是又将其注释掉了,

#time.sleep(1)   ##休息1秒再获取服务器时间


 
这样就会产生大量的请求, 注释掉的原因是为了可以方便的查看每秒能产生多少次请求, 即每秒与服务器时间校对的频率, wid这平均每秒校对15次左右, 确保时间与服务器同步, 剩下的就仅是网络的延迟问题了。
 
来自:http://www.cnblogs.com/mr-wid/archive/2012/10/22/2734695.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-368662-1-1.html 上篇帖子: python crawler(1) 下篇帖子: Python 3.3 教程
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表