设为首页 收藏本站
查看: 1040|回复: 0

[经验分享] python 抓取美女图片

[复制链接]

尚未签到

发表于 2018-8-8 06:33:20 | 显示全部楼层 |阅读模式
# -*- coding:utf8 -*-  
# __author__ = 'jony'
  
from bs4 import BeautifulSoup
  
import os, sys, urllib2,time,random
  
import re
  

  
def GetUrl():
  
    url = 'http://www.27270.com/ent/meinvtupian/'
  
    header = {'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)'}
  
    request = urllib2.Request(url,None,header)
  
    response = urllib2.urlopen(request,None,timeout=10).read()
  
    #pattern = re.compile(r'<a href="(.*)" title="(.*)"> class="MMPic"><i><img src="(.*)" width="190" height="280"  alt=.*')#在一行无法正则获取,所以使用BeautifulSoup
  
    soup = BeautifulSoup(response,"html.parser", from_encoding="gb18030") #WARNING:root:Some characters could not be decoded, and were replaced with REPLACEMENT CHARACTER.所以gb18030
  
    #soup = BeautifulSoup(response,from_encoding='gb2312')
  
    #过滤 div为MeinvTuPianBox
  
    content = soup.find_all('div',attrs={'class':'MeinvTuPianBox'})
  
    #定义列表
  
    urls = []
  
    #titles = []
  
    #picurls = []
  
    for i in content:
  
        #再次过滤 MMpic 注意是a 不是div了
  
        for j in i.findAll('a',attrs={'class':'MMPic'}):
  
            urls.append(j.get('href'))
  
            #titles.append(j.get('title'))
  
    return urls
  
def GetImage(*urls):
  
    header = {'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)'}
  
    pattern = re.compile(r'<img alt=".*" src="(.*)" />')
  
    for url in urls:
  
        print url
  
        #获取初始的页面的图片
  
        try:
  
                 request = urllib2.Request(url,None,header)
  
                 response = urllib2.urlopen(request).read()
  
                 girlink = pattern.search(response).group(1)
  
                 print girlink
  
                 req = urllib2.Request(girlink,None,header)
  
                 res = urllib2.urlopen(req,None,timeout=10).read()
  
                 with open(u'PICTURE'+'/'+time.strftime('%H%M%S')+str(random.randint(1000,9999))+u'.jpg','wb') as code:
  
                     code.write(res)
  
        except:
  
             continue
  
        #http://www.27270.com/ent/meinvtupian/2016/156239_20.html 第二十张图片的网址
  
        orignurl=url.split('.html')[0]
  
        for i in range(2,15):
  
            picurl = '%s_%s.html' % (orignurl,i)
  
            #print picurl
  
            try:
  
                request = urllib2.Request(picurl,None,header)
  
                response = urllib2.urlopen(request).read()
  
                girlink = pattern.search(response).group(1)
  
                print girlink
  
                req = urllib2.Request(girlink,None,header)
  
                res = urllib2.urlopen(req,None,timeout=10).read()
  
                with open(u'PICTURE'+'/'+time.strftime('%H%M%S')+str(random.randint(1000,9999))+u'.jpg','wb') as code:
  
                    code.write(res)
  
            except:
  
                continue
  
if __name__ == '__main__':
  
    path = os.getcwd()
  
    new_path = os.path.join(path,u'PICTURE')
  
    if not os.path.isdir(new_path):
  
        os.mkdir(new_path)
  
    links = GetUrl()
  
    #print type(links)
  
    GetImage(*links)

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-548340-1-1.html 上篇帖子: [Python学习25] 关于函数更多的练习 下篇帖子: python 用pyttsx实现语音
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表