设为首页 收藏本站
查看: 956|回复: 0

[经验分享] 关于lucene和hadoop的整合研究(一)

[复制链接]

尚未签到

发表于 2016-12-11 11:31:22 | 显示全部楼层 |阅读模式
  由于工作需要,对lucene和hadoop的整合做了一些笔记,在此备忘。
  由于水平有限,不到位之处,请海涵。
  另外,网上关于此类的文章也不多,大多是老外关于几个开源框架的说法,希望有更好的技术方案,请不吝指教一二。
  

  首先Cloudera的hadoop0.20.2自带了一个hadoop-index-0.20.2-cdh3u4.jar的工具包,提供了lucene和hadoop整合的一些方法。网上大多数版本都是基于此,所以我先对此做了一些熟悉。
  

  一  先说一下目前得出的几点个人的结论。

1, lucene是支持随机读写的,而hdfs只支持随机读,换言之,但凡有用到lucene处理的随机写的方法的时候,hdfs都不能处理。这里不讨论性能问题。只是说可行性。所以,直接将索引建立在hdfs是不可行的。

2, 目前能做到的如果不借助于local的文件而写入hdfs,唯一的方法就是把索引写入内存再写入hdfs。
DSC0000.jpg

  
DSC0001.jpg
 
DSC0002.jpg
 
上述英文的描述大家看一下就明白了,重点说到:FileSystemDirectory是一个只读的文件,索引文件因为hdfs只支持序列化的写所以无法被直接存在FileSystemDirectory上,所以会被存在lucene的本地目录上。

4,当然这个不带public的MixedDirectory是无法直接引用的,而是被下面这个类所引用:
DSC0003.jpg
 

从名字上来看这是和map/reduce相关的累,源码中,这是跑在一个reduce上写索引的类。我们看下上面的英文注解,重点部分是:perm dir和temp dir,即永久地址和临时地址,很明显,temp dir是我们每次写索引的地方,而perm dir可以是hdfs上某个位置,而每次在temp dir上创建一个新的索引版本之后,会将temp dir move到perm dir,随后删除temp dir。

结论:现在我们知道了,hadoop提供的这个和lucene结合的实质,是将索引写到本地文件,再传到hdfs上。

5,下面我跑了一下自带的测试类,而lucene的版本是2.3。看一下文件结构:
  
DSC0004.jpg
 

目录表示的很清楚,在map/reduce过程中会产生local的toBeDeleted文件夹,而在hdfs上的数据都是从local move得来的。

6,我在搜索资料的过程中,了解到几种开源产品,诸如blur , nutch , katta等用于整合lucene和hadoop,虽然我没有详细看过他们源码,但是从网友的讨论中得知,nutch也是基于先写本地再写hdfs,其他两个被使用的比较少,具体实现还不知道。

7,在这个实现中,索引的更新当然是无法直接写到hdfs上的,而是会借助于内存,然后就牵扯到了map/reduce的partition等等一些概念和一些具体的map/reduce的过程。个中细节我不是太熟悉,总之update的操作会借助到内存。

8,最后我尝试了一下写内存再写hdfs的过程,没什么问题。

三 抛砖引玉。
  
1,就目前来看,写索引到hdfs我们为何要直接去写?一方面lucene的设计本身就是随机的读写和hdfs顺序读写是完全不同的。另一方面,索引基于内存或者本地的效率往往是比较高。
  
2,我以为,用分布式去做索引的初衷是没有问题,甚至可以用m/r去搜索然后合并等等都没有问题。但是在读写索引的过程中,lucene和hdfs本身差别太大,直接读写hdfs困难重重。何不用内存和local tmp去做更为简便和高效?

最后,可能因为研究的时间还是比较仓促,网上诸如此类的资料也不是太多,所以可能会理解上不够全面,如果大家有其他意见的话还是请一起讨论。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312771-1-1.html 上篇帖子: hadoop源码研读之路(八)----DataNode本地数据块管理 下篇帖子: Hadoop-0.20.2的log存放时间控制
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表