设为首页 收藏本站
查看: 1113|回复: 0

[经验分享] 基于python的百度云网盘资源搜索引擎设计架构

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-5-11 09:32:28 | 显示全部楼层 |阅读模式
大家都知道百度云网盘上有很多分享的资源,包括软件、各类视频自学教程、电子书、甚至各种电影、BT种子应有尽有,但百度云却没有提供相应的搜索功能。个人平时要找一些软件、美剧觉得非常蛋疼。于是就尝试开发一个百度云资源的搜索系统。
资源爬虫思路
搜索引擎么最重要的就是有海量的资源了,有了资源,只要再基于资源实现全文检索功能就是一个简单的搜索引擎了。首先我需要爬取百度云的分享资源,爬取思路,打开任意一个百度云分享者的主页yun.baidu.com/share/home?uk=xxxxxx&view=share#category/type=0,你可以发现分享者有订阅者和粉丝,你可以递归遍历订阅者和粉丝,从而获得大量分享者uk,进而获得大量的分享资源。
系统实现环境
语言:python
操作系统:Linux
其他中间件:nginx mysql sphinx
系统包括几个独立的部分
1、基于requests实现的独立资源爬虫
2、基于开源全文检索引擎sphinx实现的资源索引程序
3、基于Django+bootstrap3开发的简易网站,网站搭建采用nginx1.8+fastCGI(flup)+python演示网站http://www.itjujiao.com
PS:
目前爬虫爬取了4000W左右的数据,sphinx对内存的要求实在太大了,巨坑。
百度会对爬虫做ip限制,写了个简单的xicidaili代理采集程序,requests可以配置http代理。
分词是sphinx自带的实现,支持中文分词,中文基于一元分词,有点过度分词,分词效果不是特别理想,比如我搜关键词“叶问3”出现的结果中会有“叶子的问题第3版”,不符合预期。英文分词有很多可以改善的地方,比如我搜xart不会出现x-art的结果,而实际上x-art却也是我想要的结果集(你们懂的)
数据库是mysql,资源表,考虑单表记录上限,分了10个表。第一次爬完sphinx做全量索引,后续做增量索引。
后续优化
1、分词处理,目前分词搜索结果不是很理想,有大神可以指点下思路。比如我检索“功夫熊猫之卷轴的秘密”,一个结果都没有。而检索“功夫熊猫“有结果集(功丶夫熊猫⒊英语中英字幕.mp4,功丶夫熊猫2.Kung.Fu.Panda.2.2011.BDrip.720P.国粤英台四语.特效中英字幕.mp4,功丶夫熊猫3(韩版)2016.高清中字.mkv)或搜索”卷轴的秘密“有结果集([美国]功夫潘达之卷轴的秘密.2016.1080p.mp4,g夫熊猫之卷轴的秘密.HD1280超清中英双字.mp4)
2、数据去重,目前发现抓取的数据很多是共享资源,后续考虑基于MD5去重

爬虫部分实现代码(只是思路代码有点乱)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
#coding: utf8
  
import re
import urllib2
import time
from Queue import Queue
import threading, errno, datetime
import json
import requests
import MySQLdb as mdb
  
DB_HOST = '127.0.0.1'
DB_USER = 'root'
DB_PASS = ''
  
  
re_start = re.compile(r'start=(\d+)')
re_uid = re.compile(r'query_uk=(\d+)')
re_pptt = re.compile(r'&pptt=(\d+)')
re_urlid = re.compile(r'&urlid=(\d+)')
  
ONEPAGE = 20
ONESHAREPAGE = 20
  
URL_SHARE ='http://yun.baidu.com/pcloud/feed/getsharelist?auth_type=1&start={start}&limit=20&query_uk={uk}&urlid={id}'
URL_FOLLOW ='http://yun.baidu.com/pcloud/friend/getfollowlist?query_uk={uk}&limit=20&start={start}&urlid={id}'
URL_FANS ='http://yun.baidu.com/pcloud/friend/getfanslist?query_uk={uk}&limit=20&start={start}&urlid={id}'
  
QNUM = 1000
hc_q = Queue(20)
hc_r = Queue(QNUM)
  
success = 0
failed = 0
  
PROXY_LIST = [[0, 10,"42.121.33.160", 809, "", "", 0],
               [5, 0, "218.97.195.38", 81, "", "", 0],
               ]
  
def req_worker(inx):
    s =requests.Session()
    whileTrue:
       req_item = hc_q.get()
         
       req_type = req_item[0]
       url = req_item[1]
        r= s.get(url)
       hc_r.put((r.text, url))
       print "req_worker#", inx, url
         
def response_worker():
   dbconn = mdb.connect(DB_HOST, DB_USER, DB_PASS, 'baiduyun',charset='utf8')
   dbcurr = dbconn.cursor()
   dbcurr.execute('SET NAMES utf8')
   dbcurr.execute('set global wait_timeout=60000')
    whileTrue:
         
       metadata, effective_url = hc_r.get()
       #print "response_worker:", effective_url
       try:
           tnow = int(time.time())
           id = re_urlid.findall(effective_url)[0]
           start = re_start.findall(effective_url)[0]
           if True:
               if 'getfollowlist' in effective_url: #type = 1
                    follows =json.loads(metadata)
                    uid =re_uid.findall(effective_url)[0]
                    if "total_count"in follows.keys() and follows["total_count"]>0 and str(start) =="0":
                        for i inrange((follows["total_count"]-1)/ONEPAGE):
                            try:
                               dbcurr.execute('INSERT INTO urlids(uk, start, limited, type, status)VALUES(%s, %s, %s, 1, 0)' % (uid, str(ONEPAGE*(i+1)), str(ONEPAGE)))
                            except Exception asex:
                                print"E1", str(ex)
                                pass
                     
                    if "follow_list"in follows.keys():
                        for item infollows["follow_list"]:
                            try:
                               dbcurr.execute('INSERT INTO user(userid, username, files, status,downloaded, lastaccess) VALUES(%s, "%s", 0, 0, 0, %s)' %(item['follow_uk'], item['follow_uname'], str(tnow)))
                            except Exception asex:
                                print"E13", str(ex)
                                pass
                    else:
                        print "delete1", uid, start
                        dbcurr.execute('deletefrom urlids where uk=%s and type=1 and start>%s' % (uid, start))
               elif 'getfanslist' in effective_url: #type = 2
                    fans = json.loads(metadata)
                   uid =re_uid.findall(effective_url)[0]
                    if "total_count"in fans.keys() and fans["total_count"]>0 and str(start) =="0":
                        for i inrange((fans["total_count"]-1)/ONEPAGE):
                            try:
                               dbcurr.execute('INSERT INTO urlids(uk, start, limited, type, status)VALUES(%s, %s, %s, 2, 0)' % (uid, str(ONEPAGE*(i+1)), str(ONEPAGE)))
                            except Exception asex:
                                print"E2", str(ex)
                                pass
                     
                    if "fans_list" infans.keys():
                        for item infans["fans_list"]:
                            try:
                                dbcurr.execute('INSERTINTO user(userid, username, files, status, downloaded, lastaccess) VALUES(%s,"%s", 0, 0, 0, %s)' % (item['fans_uk'], item['fans_uname'],str(tnow)))
                            except Exception asex:
                                print "E23",str(ex)
                                pass
                    else:
                        print "delete2", uid, start
                        dbcurr.execute('deletefrom urlids where uk=%s and type=2 and start>%s' % (uid, start))
               else:
                    shares =json.loads(metadata)
                    uid =re_uid.findall(effective_url)[0]
                    if "total_count"in shares.keys() and shares["total_count"]>0 and str(start) =="0":
                        for i inrange((shares["total_count"]-1)/ONESHAREPAGE):
                            try:
                               dbcurr.execute('INSERT INTO urlids(uk, start, limited, type, status)VALUES(%s, %s, %s, 0, 0)' % (uid, str(ONESHAREPAGE*(i+1)), str(ONESHAREPAGE)))
                            except Exception asex:
                                print"E3", str(ex)
                                pass
                    if "records" inshares.keys():
                        for item inshares["records"]:
                            try:
                               dbcurr.execute('INSERT INTO share(userid, filename, shareid, status)VALUES(%s, "%s", %s, 0)' % (uid, item['title'], item['shareid']))
                            except Exception asex:
                                #print"E33", str(ex), item
                                pass
                    else:
                        print "delete0", uid, start
                        dbcurr.execute('deletefrom urlids where uk=%s and type=0 and start>%s' % (uid, str(start)))
               dbcurr.execute('delete from urlids where id=%s' % (id, ))
               dbconn.commit()
       except Exception as ex:
           print "E5", str(ex), id
  
         
       pid = re_pptt.findall(effective_url)
         
       if pid:
           print "pid>>>", pid
           ppid = int(pid[0])
           PROXY_LIST[ppid][6] -= 1
   dbcurr.close()
   dbconn.close()
     
def worker():
   global success, failed
   dbconn = mdb.connect(DB_HOST, DB_USER, DB_PASS, 'baiduyun',charset='utf8')
   dbcurr = dbconn.cursor()
   dbcurr.execute('SET NAMES utf8')
   dbcurr.execute('set global wait_timeout=60000')
    whileTrue:
  
       #dbcurr.execute('select * from urlids where status=0 order by type limit1')
       dbcurr.execute('select * from urlids where status=0 and type>0 limit1')
        d= dbcurr.fetchall()
       #print d
       if d:
           id = d[0][0]
            uk = d[0][1]
           start = d[0][2]
           limit = d[0][3]
           type = d[0][4]
           dbcurr.execute('update urlids set status=1 where id=%s' % (str(id),))
           url = ""
           if type == 0:
               url = URL_SHARE.format(uk=uk, start=start, id=id).encode('utf-8')
           elif  type == 1:
               url = URL_FOLLOW.format(uk=uk, start=start, id=id).encode('utf-8')
           elif type == 2:
               url = URL_FANS.format(uk=uk, start=start, id=id).encode('utf-8')
           if url:
               hc_q.put((type, url))
               
           #print "processed", url
       else:
           dbcurr.execute('select * from user where status=0 limit 1000')
           d = dbcurr.fetchall()
           if d:
               for item in d:
                    try:
                        dbcurr.execute('insertinto urlids(uk, start, limited, type, status) values("%s", 0, %s, 0,0)' % (item[1], str(ONESHAREPAGE)))
                        dbcurr.execute('insertinto urlids(uk, start, limited, type, status) values("%s", 0, %s, 1,0)' % (item[1], str(ONEPAGE)))
                        dbcurr.execute('insertinto urlids(uk, start, limited, type, status) values("%s", 0, %s, 2,0)' % (item[1], str(ONEPAGE)))
                        dbcurr.execute('updateuser set status=1 where userid=%s' % (item[1],))
                    except Exception as ex:
                        print "E6",str(ex)
           else:
               time.sleep(1)
               
       dbconn.commit()
   dbcurr.close()
   dbconn.close()
         
     
for item in range(16):   
    t =threading.Thread(target = req_worker, args = (item,))
   t.setDaemon(True)
   t.start()
  
s = threading.Thread(target = worker, args =())
s.setDaemon(True)
s.start()
  
response_worker()



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-215443-1-1.html 上篇帖子: python-getpass模块 实现​输入密码时候不显示 下篇帖子: ubuntu12.04安装python3.5及pip3和setuptools 搜索引擎 百度 python 资源
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表