设为首页 收藏本站
查看: 1527|回复: 0

[经验分享] solr管理界面详解

[复制链接]

尚未签到

发表于 2017-12-18 19:23:39 | 显示全部楼层 |阅读模式
  原文地址:http://blog.csdn.net/zcl_love_wx/article/details/52092098
  solr 服务器管理界面可以查看系统状态、solr设置、分词检测、查询索引、增减core、查看日志等

1.Dashboard(仪表盘)
  

访问http://localhost:8080/solr时,出现该主页面,可查看到solr运行时间、solr版本,系统内存、虚拟机内存的使用情况  

  

DSC0000.jpg


2.Logging(日志)
  

显示solr运行出现的异常或错误  

  

DSC0001.jpg


3.Core Admin (core管理)
  主要有Add Core(添加核心), Unload(卸载核心),Rename(重命名核心),Reload(重新加载核心),Optimize(优化索引库)
  
Add Core是添加core:主要是在instanceDir对应的文件夹里生成一个core.properties文件
DSC0002.jpg

  
name:给core起的名字;
  
instanceDir:与我们在配置solr到tomcat里时的solr_home里新建的core文件夹名一致;
  
dataDir:确认Add Core时,会在new_core目录下生成名为data的文件夹
  
config:new_core下的conf下的config配置文件(solrconfig.xml)
  
schema: new_core下的conf下的schema文件(schema.xml)
DSC0003.jpg

  确认Add Core时,会在new_core下生成data文件夹,与core.properties文件。core.properties文件里内容如下:
DSC0004.jpg


4.Java Properties
  可查看到Java相关的一些属性的信息

5. Core Selecter(core选择器)
  需要在Core Admin里添加了core后才有可选项,这里以已经添加好的ims_advertiser_core为例。

5.1 overview(概览)
  包含基本统计如当前文档数;和实例信息如当前核心的配置目录;
DSC0005.jpg


5.2 Analysis(分析)
  检验分词效果,如图,我们对companyName字段进行了分词 ( 至于哪些字段能分词,取决于在schema.xml文件里配置该字段时的type是否为配置的分词器类型text_ik)
  

<field name="companyName" type="text_ik" indexed="false" stored="true" multiValued="false" />  
//这里的text_ik就是下面name属性的值
  


  • 1
  • 2


  • 1
  • 2
  

<!-- 配置IK分词器start -->  <fieldType name="text_ik" positionIncrementGap="100">
  <analyzer type="index">
  <tokenizer useSmart="false" isMaxWordLength="false"/>
  <filter/>
  </analyzer>
  

  <analyzer type="query">
  <tokenizer useSmart="false" isMaxWordLength="false"/>
  <filter/>
  </analyzer>
  </fieldType>
  


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  这里的高亮就是背景色是灰色
  
DSC0006.jpg

5.3 Dataimport(从数据库导入数据)
  前提是已经配置好了相关的配置,详情参见:Solr从数据库导入数据
DSC0007.jpg

  
Comman选项:full_import:全导入;delta_import:增量导入。
  
所谓delta-import主要是对于数据库(也可能是文件等等)中增加或者被修改的字段进行导入。主要原理是利用率每次我们进行import的时候在solr.home\conf下面生成的dataimport.properties文件,此文件里面有最近一次导入的相关信息。这个文件如下:
  #Tue Jul 19 10:15:50 CST 2016
  advertiser.last_index_time=2016-07-19 10:15:49
  last_index_time=2016-07-19 10:15:49
  
其实last_index_time是最近一次索引(full-import或者delta-import)的时间。
  
通过比较这个时间和我们数据库表中的timestamp列即可得出哪些是之后修改或者添加的。
  Verbose:
  
Clean: 在索引开始构建之前是否删除之前的索引,默认为true
  
Commit: 在索引完成之后是否提交。默认为true
  
Optimize: 是否在索引完成之后对索引进行优化。默认为true
  
Debug: 是否以调试模式运行,适用于交互式开发(interactive development mode)之中。
  
请注意,如果以调试模式运行,那么默认不会自动提交,请加参数“commit=true”
  Entity: entity是document下面的标签(data-config.xml)。使用这个参数可以有选择的执行一个或多个entity   。使用多个entity参数可以使得多个entity同时运行。如果不选择此参数那么所有的都会被运行。
  
Start,Rows:
  
Custom Parameters:
  
Excute:执行导入。
  
Refresh Status:刷新后才能看到数据发生了变化,如果刷新后数据还是0,说明未导入。

5.4 Documents
  Documents (索引文档)索引的相关操作,如:增加,修改,删除等,例如我们要增加一个索引(companyName)的办法:
  
  a. 先要在solr 的D:\solr_home\mycore1\conf  的 schema.xml配置文件下,增加相关的字段field
  

<field name="companyName" type="text_ik" indexed="false" stored="true" multiValued="false" />  


  • 1


  • 1
  否则会出现如下错误:
  

Status: error  
Error: Bad Request
  
Error:
  
{
  "responseHeader": {
  "status": 400,
  "QTime": 1
  },
  "error": {
  "msg": "ERROR: [doc=126] unknown field 'companyName'",
  "code": 400
  }
  
}
  


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  b. 在如下页面,选择/update ,文档格式选择json ,然后submit 提交。这样 索引就增加上了。修改与增加一样,都是/update ,删除为/delete
  
成功之后,我们去query里查询数据就能查到我们刚添加的数据.
DSC0008.jpg

  Request-Handler(qt): 要进行的操作(update\delete)
  
Document Type:类型,有JSON、XML等格式
  
Document(s): 内容,手动写的内容。
  
Commit Within:
  
Overwrite: 为true,说明如果id重复则覆盖以前的值;为false说明如果id重复不覆盖以前的值.
  
Boost: 好像是什么版本,没用过

5.5 Files文件夹
  solr_home下的core下的conf下的相关文件,可单击查看里面的内容.
  
DSC0009.jpg

5.6 Query(查询页面),查询的结果要显示哪个字段,就得将schema.xml文件配置字段时的stored属性设为true.
  查询索引的文档,包含是否存在,排序是否正确等
  
DSC00010.jpg
  
进入该页面后,直接点击Execute Query时,在右侧会生查回数据:
DSC00011.jpg

  
Request-Handler(qt):
  
q: 查询字符串(必须的)。:表示查询所有;keyword:东看 表示按关键字“东看”查询
  
fq: filter query 过滤查询。使用Filter Query可以充分利用Filter Query
Cache,提高检索性能。作用:在q查询符合结果中同时是fq查询符合的(类似求交集),例如:q=mm&fq=date_time:[20081001TO 20091031],找关键字mm,并且date_time是20081001到20091031之间的。
  
sort: 排序。格式如下:字段名 排序方式;如advertiserId desc 表示按id字段降序排列查询结果。
  
start,rows:表示查回结果从第几条数据开始显示,共显示多少条。
  
fl: field list。指定查询结果返回哪些字段。多个时以空格“ ”或逗号“,”分隔。不指定时,默认全返回。
  
df: default field默认的查询字段,一般默认指定。
  
Raw Query Parameters:  
  
wt: write type。指定查询输出结果格式,我们常用的有json格式与xml格式。在solrconfig.xml中定义了查询输出格式:xml、json、Python、ruby、PHP、phps、custom。
  
indent: 返回的结果是否缩进,默认关闭,用 indent=true | on 开启,一般调试json,php,phps,ruby输出才有必要用这个参数。
  
debugQuery: 设置返回结果是否显示Debug信息。
  
dismax:
  
edismax:
  
hl: high light 高亮。hl=true表示启用高亮
  hl.fl
用空格或逗号隔开的字段列表(指定高亮的字段)。要启用某个字段的highlight功能,就得保证该字段在schema中是stored。如果该参数未被给出,那么就会高亮默认字段 standard
handler会用df参数,dismax字段用qf参数。你可以使用星号去方便的高亮所有字段。如果你使用了通配符,那么要考虑启用
hl.requiredFieldMatch选项。
  hl.simple.pre
  hl.requireFieldMatch:
如果置为true,除非该字段的查询结果不为空才会被高亮。它的默认值是false,意味
着它可能匹配某个字段却高亮一个不同的字段。如果hl.fl使用了通配符,那么就要启用该参数。尽管如此,如果你的查询是all字段(可能是使用
copy-field 指令),那么还是把它设为false,这样搜索结果能表明哪个字段的查询文本未被找到
  hl.usePhraseHighlighter:如果一个查询中含有短语(引号框起来的)那么会保证一定要完全匹配短语的才会被高亮。
  hl.highlightMultiTerm:如果使用通配符和模糊搜索,那么会确保与通配符匹配的term会高亮。默认为false,同时hl.usePhraseHighlighter要为true。
  
facet:分组统计,在搜索关键字的同时,能够按照Facet的字段进行分组并统计。
  facet.query:Facet Query利用类似于filter query的语法提供了更为灵活的Facet.通过facet.query参数,可以对任意字段进行筛选。
  facet.field:需要分组统计的字段,可以多个。
  facet.prefix:  表示Facet字段值的前缀。比如facet.field=cpu&facet.prefix=Intel,那么对cpu字段进行Facet查询,返回的cpu都是以Intel开头的, AMD开头的cpu型号将不会被统计在内。
  
spatial:
  
spellcheck: 拼写检查。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425479-1-1.html 上篇帖子: solr索引数据库 下篇帖子: Solr常用命令总结
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表