设为首页 收藏本站
查看: 1326|回复: 0

[经验分享] 教你使用solr搭建你的全文检索

[复制链接]

尚未签到

发表于 2016-12-16 07:38:02 | 显示全部楼层 |阅读模式
教你使用solr搭建你的全文检索

引用:http://bbs.zdnet.com.cn/archiver/tid-181555.html
 Solr 是一个可供企业使用的、基于 Lucene 的开箱即用的搜索服务器。对Lucene不熟?那么建议先看看下面两篇文档:

  实战Lucene,第 1 部分: 初识 Lucene:http://www.ibm.com/developerworks/cn/java/j-lo-lucene1/

  用Lucene加速Web搜索应用程序的开发:http://www.ibm.com/developerworks/cn/web/wa-lucene2/

  一、 solr介绍

  solr是基于Lucene Java搜索库的企业级全文搜索引擎,目前是apache的一个项目。它的官方网址在http://lucene.apache.org/solr/ .solr需要运行在一个servlet 容器里,例如tomcat5.5.solr在lucene的上层提供了一个基于HTTP/XML的Web Services,我们的应用需要通过这个服务与solr进行交互。

  二、 solr安装和配置

  关于solr的安装和配置,这里也有两篇非常好的文档,作者同时也是 Lucene Java 项目的提交人和发言人:

  使用Apache Solr实现更加灵巧的搜索:http://www.ibm.com/developerworks/cn/java/j-solr1/index.html

  http://www.ibm.com/developerworks/cn/java/j-solr2/index.html

  下面主要说说需要注意的地方。

  Solr的安装非常简单,下载solr的zip包后解压缩将dist目录下的war文件改名为solr.war直接复制到tomcat5.5的webapps目录即可。注意一定要设置solr的主位置。有三种方法。我采用的是在tomcat里配置java:comp/env/solr/home的一个JNDI指向solr的主目录(example目录下),建立/tomcat55/conf/Catalina/localhost/solr.xml文件。

<Context docBase="D:/solr.war" debug="0" crossContext="true" ><Environment name="solr/home" type="java.lang.String"                   value="D:/solr/solr" override="true" /></Context>


  观察这个指定的solr主位置,里面存在两个文件夹:conf和data.其中conf里存放了对solr而言最为重要的两个配置文件schema.xml和solrconfig.xml.data则用于存放索引文件。

  schema.xml主要包括types、fields和其他的一些缺省设置。

  solrconfig.xml用来配置Solr的一些系统属性,例如与索引和查询处理有关的一些常见的配置选项,以及缓存、扩展等等。

  上面的文档对这两个文件有比较详细的说明,非常容易上手。注意到schema.xml里有一个

<uniqueKey>url</uniqueKey>


  的配置,这里将url字段作为索引文档的唯一标识符,非常重要。

  三、 加入中文分词

  对全文检索而言,中文分词非常的重要,这里采用了qieqie庖丁分词(非常不错:))。集成非常的容易,我下载的是2.0.4-alpha2版本,其中它支持最多切分和按最大切分。创建自己的一个中文TokenizerFactory继承自solr的BaseTokenizerFactory.

/**
* Created by IntelliJ IDEA.
* User: ronghao
* Date: 2007-11-3
* Time: 14:40:59
* 中文切词 对庖丁切词的封装
*/
public class ChineseTokenizerFactory extends BaseTokenizerFactory {
    /**
     * 最多切分   默认模式
     */
    public static final String MOST_WORDS_MODE = "most-words";
    /**
     * 按最大切分
     */
    public static final String MAX_WORD_LENGTH_MODE = "max-word-length";
    private String mode = null;
    public void setMode(String mode) {
             if (mode==null||MOST_WORDS_MODE.equalsIgnoreCase(mode)
                      || "default".equalsIgnoreCase(mode)) {
                  this.mode=MOST_WORDS_MODE;
             } else if (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) {
                  this.mode=MAX_WORD_LENGTH_MODE;
             }
             else {
                  throw new IllegalArgumentException("不合法的分析器Mode                                                参数设置:" + mode);
             }
        }
    @Override
    public void init(Map args) {
        super.init(args);
        setMode(args.get("mode"));
    }
    public TokenStream create(Reader input) {
        return new PaodingTokenizer(input, PaodingMaker.make(),
                  createTokenCollector());
    }
    private TokenCollector createTokenCollector() {
        if( MOST_WORDS_MODE.equals(mode))
             return new MostWordsTokenCollector();
        if( MAX_WORD_LENGTH_MODE.equals(mode))
             return new MaxWordLengthTokenCollector();
        throw new Error("never happened");
    }
      }


  在schema.xml的字段text配置里加入该分词器。

<fieldtype name="text" class="solr.TextField" positionIncrementGap="100">        <analyzer type="index">          <tokenizer class="com.ronghao.fulltextsearch.analyzer.                     ChineseTokenizerFactory" mode="most-words"/>          <filter class="solr.StopFilterFactory" ignoreCase="true"                                         words="stopwords.txt"/>       <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1"              generateNumberParts="1" catenateWords="1" catenateNumbers="1"                                                      catenateAll="0"/>          <filter class="solr.LowerCaseFilterFactory"/>           <filter class="solr.RemoveDuplicatesTokenFilterFactory"/>         </analyzer>    <analyzer type="query">         <tokenizer class="com.ronghao.fulltextsearch.analyzer.                            ChineseTokenizerFactory" mode="most-words"/>            <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt"                                          ignoreCase="true" expand="true"/>         <filter class="solr.StopFilterFactory" ignoreCase="true" words="                                                       stopwords.txt"/>      <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1"              generateNumberParts="1" catenateWords="0" catenateNumbers="0"                              catenateAll="0"/>         <filter class="solr.LowerCaseFilterFactory"/>          <filter class="solr.RemoveDuplicatesTokenFilterFactory"/>     </analyzer> </fieldtype>


  完成后重启tomcat,即可在http://localhost:8080/solr/admin/analysis.jsp

  体验到庖丁的中文分词。注意要将paoding-analysis.jar复制到solr的lib下,注意修改jar包里字典的home.

  四、 与自己应用进行集成

  Solr安装完毕,现在可以将自己的应用与solr集成。其实过程非常的简单,应用增加数据——>根据配置的字段构建add的xml文档——>post至solr/update.

  应用删除数据à根据配置的索引文档唯一标识符构建delete的xml文档——>post至solr/update.

  检索数据à构建查询xml—>get至/solr/select/——>对solr返回的xml进行处理——>页面展现。

  具体的xml格式可以在solr网站找到。另外就是solr支持高亮显示,非常方便。

  关于中文,solr内核支持UTF-8编码,所以在tomcat里的server.xml需要进行配置

<Connector port="8080" maxHttpHeaderSize="8192" URIEncoding="UTF-8" …/>


  另外,向solr Post请求的时候需要转为utf-8编码。对solr 返回的查询结果也需要进行一次utf-8的转码。检索数据时对查询的关键字也需要转码,然后用“+”连接。

String[] array = StringUtils.split(query, null, 0);

        for (String str : array) {

            result = result + URLEncoder.encode(str, "UTF-8") + "+";

        }

页: [1]
查看完整版本: 教你使用solr搭建你的全文检索

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-314849-1-1.html 上篇帖子: 利用SOLR搭建企业搜索平台 之 MultiCore 下篇帖子: SOLR 性能调优
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表