设为首页 收藏本站
查看: 756|回复: 0

[经验分享] Solr基础

[复制链接]

尚未签到

发表于 2018-11-1 12:22:15 | 显示全部楼层 |阅读模式
  因为 Solr 包装并扩展了Lucene,所以它们使用很多相同的术语。更重要的是,Solr 创建的索引与 Lucene 搜索引擎库完全兼容。通过对 Solr 进行适当的配置,某些情况下可能需要进行编码,Solr 可以阅读和使用构建到其他 Lucene 应用程序中的索引。在 Solr 和 Lucene 中,使用一个或多个 Document 来构建索引。Document包括一个或多个 Field。Field 包括名称、内容以及告诉 Solr 如何处理内容的元数据。
  例如,Field 可以包含字符串、数字、布尔值或者日期,也可以包含你想添加的任何类型,只需用在solr的配置文件中进行相应的配置即可。Field 可以使用大量的选项来描述,这些选项告诉 Solr 在索引和搜索期间如何处理内容。
  现在,查看一下表中列出的重要属性的子集:
  属性名称
  描述
  Indexed
  Indexed  Field 可以进行搜索和排序。你还可以在 indexed  Field 上运行 Solr 分析过程,此过程可修改内容以改进或更改结果。
  Stored
  stored  Field 内容保存在索引中。这对于检索和醒目显示内容很有用,但对于实际搜索则不是必需的。例如,很多应用程序存储指向内容位置的指针而不是存储实际的文件内容。
  5.1 配置文件solr.xml
  
  
  
  
  
  
  
  这里没有配置defaultCoreName,默认为collection1。其中的adminPath属性指明通过浏览器查看主目录多个核的属性的相对地址。是关于每个核的名字和目录的指示,例如,这里有两个核,core0和core1,它们各自的实例目录分别是solr.xml所在文件夹下的core0和core1目录。而且,就算没有solr.xml文件,也不会报错的,因为都有默认值。
  源码片段如下:
  public static final    String DEFAULT_DEFAULT_CORE_NAME = "collection1";
  public static final    String DEF_SOLR_XML = "\n"
  + "\n"
  + "  \n"
  + "    \n"
  + "  \n" +    "";
  5.2 模式配置Schema.xml
  schema.xml这个配置文件可以在你下载solr包的安装解压目录的\solr\example\solr\collection1\conf中找到,它就是solr模式关联的文件。打开这个配置文件,会发现有详细的注释。模式组织主要分为三个重要配置
  5.2.1.  types 部分
  是一些常见的可重用定义,定义了 Solr(和 Lucene)如何处理 Field。也就是添加到索引中的xml文件属性中的类型,如int、text、date等.
  
  
  
  
  
  
  
  
  
  
  
  
  
  
  
  
  参数说明:
  属性
  描述
  name
  标识而已
  class
  和其他属性决定了这个fieldType的实际行为。
  sortMissingLast
  设置成true没有该field的数据排在有该field的数据之后,而不管请求时的排序规则, 默认是设置成false。
  sortMissingFirst
  跟上面倒过来,默认是设置成false
  analyzer
  字段类型指定的分词器
  type
  当前分词用用于的操作.index代表生成索引时使用的分词器query代码在查询时使用的分词器
  tokenizer
  分词器类
  filter
  分词后应用的过滤器  过滤器调用顺序和配置相同.
  5.2.2.  fileds
  是你添加到索引文件中出现的属性名称,而声明类型就需要用到上面的types
  
  
  
  
  
  
  
  
  
  ·      field: 固定的字段设置
  ·      dynamicField: 动态的字段设置,用于后期自定义字段,*号通配符.例如: test_i就是int类型的动态字段.
  还有一个特殊的字段copyField,一般用于检索时用的字段这样就只对这一个字段进行索引分词就行了,copyField的dest字段如果有多个source一定要设置multiValued=true,否则会报错的。
  另外,使用copyField将多个field都复制到一个总的field上,然后对它进行搜索,可以最小化索引字段并且提高搜索的效率。
  
  
  
  字段属性说明:
  属性
  描述
  name
  字段类型名
  class
  java类名
  indexed
  缺省true。 说明这个数据应被搜索和排序,如果数据没有indexed,则stored应是true。
  stored
  缺省true。说明这个字段被包含在搜索结果中是合适的。如果数据没有stored,则indexed应是true。
  omitNorms
  字段的长度不影响得分和在索引时不做boost时,设置它为true。
  一般文本字段不设置为true。
  termVectors
  如果字段被用来做more like this 和highlight的特性时应设置为true。
  compressed
  字段是压缩的。这可能导致索引和搜索变慢,但会减少存储空间,只有StrField和TextField是可以压缩,这通常适合字段的长度超过200个字符。
  multiValued
  字段多于一个值的时候,可设置为true。
  positionIncrementGap
  和multiValued一起使用,设置多个值之间的虚拟空白的数量
  注意:_version_ 是一个特殊字段,不能删除,是记录当前索引版本号的.
  5.2.3. 其他配置
  uniqueKey: 唯一键,这里配置的是上面出现的fileds,一般是id、url等不重复的。在更新、删除的时候可以用到。
  defaultSearchField:默认搜索属性,如q=solr就是默认的搜索那个字段
  solrQueryParser:查询转换模式,是并且还是或者(AND/OR必须大写)
  5.3. solr配置solrconfig.xml
  solrconfig.xml这个配置文件可以在你下载solr包的安装解压目录的solr\example\solr\collection1\conf中找到,这个配置文件内容有点多,主要内容有:使用的lib配置,包含依赖的jar和Solr的一些插件;组件信息配置;索引配置和查询配置。下面详细说明:
  5.3.1 索引indexConfig
  Solr性能因素,来了解与各种更改相关的性能权衡。 下表概括了可控制 Solr 索引处理的各种因素:
  属性
  描述
  useCompoundFile
  通过将很多 Lucene 内部文件整合到一个文件来减少使用中的文件的数量。这可有助于减少 Solr 使用的文件句柄数目,代价是降低了性能。除非是应用程序用完了文件句柄,否则 false 的默认值应该就已经足够。
  ramBufferSizeMB
  在添加或删除文档时,为了减少频繁的更些索引,Solr会选缓存在内存中,当内存中的文件大于设置的值,才会更新到索引库(也就是制定缓存的文档数目达到多少时会自动建立硬盘索引文件)。较大的值可使索引时间变快但会牺牲较多的内存。如两个值同时设置,满足一个就会进行刷新索引
  maxBufferedDocs
  mergeFactor
  决定低水平的 Lucene 段被合并的频率。较小的值(最小为 2)使用的内存较少但导致的索引时间也更慢。较大的值可使索引时间变快但会牺牲较多的内存。例如:10表示,最低级的索引文件数量达到10时会合并为1个索引文件,当这样合成索引文件数目达到10个时,又会合并为更高级的索引文件
  maxIndexingThreads
  indexWriter生成索引时使用的最大线程数
  unlockOnStartup
  unlockOnStartup 告知 Solr 忽略在多线程环境中用来保护索引的锁定机制。在某些情况下,索引可能会由于不正确的关机或其他错误而一直处于锁定,这就妨碍了添加和更新。将其设置为 true 可以禁用启动锁定,进而允许进行添加和更新。
  lockType
  single: 在只读索引或是没有其它进程修改索引时使用.
  native: 使用操作系统本地文件锁,不能使用多个Solr在同一个JVM中共享一个索引.
  simple :使用一个文本文件锁定索引.
  5.3.2 查询配置query
  属性
  描述
  maxBooleanClauses
  最大的BooleanQuery数量. 当值超出时,抛出 TooManyClausesException.注意这个是全局的,如果是多个SolrCore都会使用一个值,每个Core里设置不一样的化,会使用最后一个的.
  filterCache

  filterCache存储了无序的lucene document>  queryResultCache
  缓存搜索结果,一个文档ID列表
  documentCache
  缓存Lucene的Document对象,不会自热
  fieldValueCache
  字段缓存使用文档ID进行快速访问。默认情况下创建fieldValueCache即使这里没有配置。
  enableLazyFieldLoading
  若应用程序预期只会检索 Document 上少数几个 Field,那么可以将属性设置为 true。延迟加载的一个常见场景大都发生在应用程序返回和显示一系列搜索结果的时候,用户常常会单击其中的一个来查看存储在此索引中的原始文档。初始的显示常常只需要显示很短的一段信息。若考虑到检索大型 Document 的代价,除非必需,否则就应该避免加载整个文档。
  queryResultWindowSize
  一次查询中存储最多的doc的id数目.
  queryResultMaxDocsCached
  查询结果doc的最大缓存数量, 例如要求每页显示10条,这里设置是20条,也就是说缓存里总会给你多出10条的数据.让你点示下一页时很快拿到数据.
  listener
  选项定义 newSearcher 和 firstSearcher 事件,您可以使用这些事件来指定实例化新搜索程序或第一个搜索程序时应该执行哪些查询。如果应用程序期望请求某些特定的查询,那么在创建新搜索程序或第一个搜索程序时就应该反注释这些部分并执行适当的查询。
  useColdSearcher
  是否使用冷搜索, 为false时使用“预热”后的searcher
  maxWarmingSearchers
  最大“预热”searcher数量
  5.3.3
  用于替换默认的索引数据目录(./data),如果不是绝对路径,将使用servlet容器当前工作目录下的相对路径。
  5.3.4 更新处理器的配置
  该元素用于对更新处理器进行配置,更新处理器是用于更新索引数据的类,主要涉及底层的关于如何更新处理内部的信息。(不要跟高层次的配置参数Request Handlers对处理发自客户端的更新相混淆)
  常用配置参数:
  
  
  10000
  1000
  
  
  snapshooter
  solr/bin
  true
   arg1    arg2
   MYVAR=val1   
  
  
  参数说明:
  属性
  描述
  class
  使用哪个类进行索引更新操作
  autoCommit
  在何时对索引数据进行提交(就是将内存中的索引写到硬盘)。上面的配置参数指明在内存中缓存的文档数目达到10000或时间达到1000时进行提交。
  listener
  配置一个“监听器”,这个“监听器”在特定的事件发生时将被触发
  5.3.5
  这里配置可以被HTTP的requestDispatcher使用的一些参数。
  5.3.6
  可以定义多个请求处理器,这些处理器可以在查询和索引数据更新的时候使用。
  5.3.7
  可以定义多个结果处理器,这些结果处理器会以不同的方式返回结果。
  5.4Solr加入中文分词器
  中文分词在solr里面是没有默认开启的,需要我们自己配置一个中文分词器。目前可用的分词器有smartcn,IK,Jeasy,庖丁。其实主要是两种,一种是基于中科院ICTCLAS的隐式马尔科夫HMM算法的中文分词器,如smartcn,ictclas4j,优点是分词准确度高,缺点是不能使用用户自定义词库;另一种是基于最大匹配的分词器,如IK ,Jeasy,庖丁,优点是可以自定义词库,增加新词,缺点是分出来的垃圾词较多。各有优缺点看应用场合自己衡量选择吧。
  下面给出两种分词器的安装方法,任选其一即可,推荐第一种,因为smartcn就在solr发行包的contrib/analysis-extras/lucene-libs/下,就是lucene-analyzers-smartcn-4.7.0.jar,首选在solrconfig.xml中加一句引用analysis-extras的配置,这样我们自己加入的分词器才会引用到solr中.
  
  5.4.1.  smartcn 分词器的安装
  首选将发行包的contrib/analysis-extras/lucene-libs/lucene-analyzers-smartcn-4.7.0.jar复制到\solr\contrib\analysis-extras\lib下,在solr本地应用文件夹下,打开/solr/conf/scheme.xml,编辑text字段类型如下,添加以下代码到scheme.xml中的相应位置,就是找到fieldType定义的那一段,在下面多添加这一段就好啦
  
  
  
  
  
  
  
  
  
  
  如果需要检索某个字段,还需要在scheme.xml下面的field中,添加指定的字段,用text_smartcn作为type的名字,来完成中文分词。如 text要实现中文检索的话,就要做如下的配置:
  
  5.4.2.  IK 分词器的安装
  首选要去下载IKAnalyzer的发行包.下载地址: http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip.
  下载后解压出来文件中的三个复制到\solr\contrib\analysis-extras\lib目录中.
  IKAnalyzer2012FF_u1.jar       分词器jar包
  IKAnalyzer.cfg.xml                 分词器配置文件
  Stopword.dic                           分词器停词字典,可自定义添加内容
  复制后就可以像smartcn一样的进行配置scheme.xml了.
  
  
  
  
  现在来验证下是否添加成功,首先使用StartSolrJetty来启动solr服务,启动过程中如果配置出错,一般有两个原因:一是配置的分词器jar找不到,也就是你没有复制jar包到\solr\contrib\analysis-extras\lib目前下;二是分词器版本不对导致的分词器接口API不一样出的错,要是这个错的话就在检查分词器的相关文档,看一下支持的版本是否一样.
  如果在启动过程中没有报错的话说明配置成功了.我们可以进入到http://localhost:8080/solr地址进行测试一下刚加入的中文分词器.在首页的Core Selector中选择你配置的Croe后点击下面的Analysis,在AnalyseFieldname / FieldType里选择你刚才设置的字段名称或是分词器类型,在Field Value(index)中输入:中国人,点击右面的分词就行了.
  更多精彩内容请关注:http://bbs.superwu.cn
  关注超人学院微信二维码:


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629380-1-1.html 上篇帖子: solr4.3 solrconfig.xml配置文件 下篇帖子: solr从pdf、office文档中建立索引
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表