设为首页 收藏本站
查看: 1238|回复: 0

[经验分享] 不可一日无烟卷

[复制链接]

尚未签到

发表于 2017-2-28 08:22:57 | 显示全部楼层 |阅读模式
  # 集群名
  cluster.name: "cn-out-of-box"
  # 节点名
  node.name: "node1"
  # 是否有资格成为主节点
  node.master: true
  # 是否存储索引数据
  node.data: true
  # 默认索引分片数
  index.number_of_shards: 3
  # 默认索引副本数
  index.number_of_replicas: 1
  # 临时文件存储路路径
  #path.work: "/tmp/elasticsearch"
  # 日志文件存储路路径
  #path.logs:  "/var/log/elasticsearch/logs"
  # tcp传输端口
  transport.tcp.port: 9300
  # 是否压缩tcp传输数据
  transport.tcp.compress: true
  # http端口
  http.port: 9200
  # 是否开启http服务
  #http.enabled: true
  # 是否打开多播发现节点
  discovery.zen.ping.multicast.enabled: true
  # 慢查询日志参数
  #index.search.slowlog.threshold.query.warn: 10s
  #index.search.slowlog.threshold.query.info: 5s
  #index.search.slowlog.threshold.query.debug: 2s
  #index.search.slowlog.threshold.query.trace: 500ms
  #index.search.slowlog.threshold.fetch.warn: 1s
  #index.search.slowlog.threshold.fetch.info: 800ms
  #index.search.slowlog.threshold.fetch.debug: 500ms
  #index.search.slowlog.threshold.fetch.trace: 200ms
  # 启用jetty插件提供http服务
  http.type: com.sonian.elasticsearch.http.jetty.JettyHttpServerTransport
  # sonian.elasticsearch.http.jetty:
  # ==== 开启 https
  #ssl_port: 9443
  #config: jetty.xml,jetty-ssl.xml, jetty-gzip.xml
  #keystore_password: "OBF:1nc01vuz1w8f1w1c1rbu1rac1w261w9b1vub1ndq"
  # ==== 开启用户认证
  # config: jetty.xml,jetty-hash-auth.xml,jetty-restrict-all.xml
  # 索引配置
  index:
  # 分析配置
  analysis:
  # 分词器配置  
  tokenizer:
  index_ansj_token:
  type: ansj_index_token
  is_name: false
  is_num: false
  is_quantifier: false
  query_ansj_token:
  type: ansj_query_token
  is_name: false
  is_num: false
  is_quantifier: false
  # ======== analysis-pinyin ========
  # 完整拼音
  my_pinyin:
  type: pinyin
  first_letter: prefix
  padding_char: ' '
  # 拼音首字母
  pinyin_first_letter:
  type: pinyin
  first_letter: only
  # ======== analysis-mmseg ========
  # 简单正向匹配
  #       example: 一个劲儿的说话
  #       一个
  #       一个劲
  #       一个劲儿
  #       一个劲儿的
  mmseg_simple:
  type: mmseg
  seg_type: simple
  # 匹配出所有的“三个词的词组”
  # 并使用四种规则消歧(最大匹配、最大平均词语长度、词语长度的最小变化率、所有单字词词频的自然对数之和)
  #       example: 研究生命起源
  #       研_究_生
  #       研_究_生命
  #       研究生_命_起源
  #       研究_生命_起源
  mmseg_complex:
  type: mmseg
  seg_type: complex
  # 基于complex的最多分词
  #       example: 中国人民银行
  #       中国|人民|银行
  mmseg_maxword:
  type: mmseg
  seg_type: max_word
  # ======== analysis-stconvert ========
  # 简繁转换,只输出繁体
  s2t_convert:
  type: stconvert
  delimiter: ","
  convert_type: s2t
  # 繁简转换,只输出简体
  t2s_convert:
  type: stconvert
  delimiter: ","
  convert_type: t2s
  # 简繁转换,同时输出繁体简体
  s2t_keep_both_convert:
  type: stconvert
  delimiter: ","
  keep_both: 'true'
  convert_type: s2t
  # 繁简转换,同时输出简体繁体
  t2s_keep_both_convert:
  type: stconvert
  delimiter: ","
  keep_both: 'true'
  convert_type: t2s
  # ======== analysis-pattern ========
  # 正则,分号分词
  semicolon_spliter:
  type: pattern
  pattern: ";"
  # 正则,%分词
  pct_spliter:
  type: pattern
  pattern: "[%]+"
  # ======== analysis-nGram ========     
  # 1~2字为一词
  ngram_1_to_2:
  type: nGram
  min_gram: 1
  max_gram: 2
  # 1~3字为一词
  ngram_1_to_3:
  type: nGram
  min_gram: 1
  max_gram: 3
  # 过滤器配置
  filter:
  # ======== ngram filter ========     
  ngram_min_3:
  max_gram: 10
  min_gram: 3
  type: nGram
  ngram_min_2:
  max_gram: 10
  min_gram: 2
  type: nGram
  ngram_min_1:
  max_gram: 10
  min_gram: 1
  type: nGram
  # ======== length filter ========   
  min2_length:
  min: 2
  max: 4
  type: length
  min3_length:
  min: 3
  max: 4
  type: length
  # ======== string2int filter ========   
  #      my_string2int:
  #        type: string2int
  #        redis_server: 127.0.0.1
  #        redis_port: 6379
  #        redis_key: index1_type2_name2
  # ======== pinyin filter ========  
  pinyin_first_letter:
  type: pinyin
  first_letter: only
  # 分析器配置
  analyzer:
  lowercase_keyword:
  type: custom
  filter:
  - lowercase
  tokenizer: standard
  lowercase_keyword_ngram_min_size1:
  type: custom
  filter:
  - lowercase
  - stop
  - trim
  - unique
  tokenizer: nGram
  lowercase_keyword_ngram_min_size2:
  type: custom
  filter:
  - lowercase
  - min2_length
  - stop
  - trim
  - unique
  tokenizer: nGram
  lowercase_keyword_ngram_min_size3:
  type: custom
  filter:
  - lowercase
  - min3_length
  - stop
  - trim
  - unique
  tokenizer: ngram_1_to_3
  lowercase_keyword_ngram:
  type: custom
  filter:
  - lowercase        
  - stop
  - trim
  - unique
  tokenizer: ngram_1_to_3
  lowercase_keyword_without_standard:
  type: custom
  filter:
  - lowercase
  tokenizer: keyword
  lowercase_whitespace:
  type: custom
  filter:
  - lowercase
  tokenizer: whitespace
  # ======== ik  ========   
  # ik分词器
  ik:
  alias:
  - ik_analyzer
  type: org.elasticsearch.index.analysis.IkAnalyzerProvider
  # ik智能切分
  ik_max_word:
  type: ik
  use_smart: false
  # ik最细粒度切分
  ik_smart:
  type: ik
  use_smart: true
  # ======== mmseg  ========   
  # mmseg分词器
  mmseg:
  alias:
  - mmseg_analyzer
  type: org.elasticsearch.index.analysis.MMsegAnalyzerProvider
  mmseg_maxword:
  type: custom
  filter:
  - lowercase
  tokenizer: mmseg_maxword
  mmseg_complex:
  type: custom
  filter:
  - lowercase
  tokenizer: mmseg_complex
  mmseg_simple:
  type: custom
  filter:
  - lowercase
  tokenizer: mmseg_simple
  # ======== 正则 ========
  comma_spliter:
  type: pattern
  pattern: "[,|\\s]+"
  pct_spliter:
  type: pattern
  pattern: "[%]+"
  custom_snowball_analyzer:
  type: snowball
  language: English
  simple_english_analyzer:
  type: custome
  tokenizer: whitespace
  filter:
  - standard
  - lowercase
  - snowball
  edge_ngram:
  type: custom
  tokenizer: edgeNGram
  filter:
  - lowercase
  # ======== 拼音分析 ========        
  pinyin_ngram_analyzer:
  type: custom
  tokenizer: my_pinyin
  filter:
  - lowercase
  - nGram
  - trim
  - unique
  # ======== 拼音首字母分词 ========     
  pinyin_first_letter_analyzer:
  type: custom
  tokenizer: pinyin_first_letter
  filter:
  - standard
  - lowercase
  # ======== 拼音首字母分词并过滤 ========
  pinyin_first_letter_keyword_analyzer:
  alias:
  - pinyin_first_letter_analyzer_keyword
  type: custom
  tokenizer: keyword
  filter:
  - pinyin_first_letter
  - lowercase
  # ======== 简繁体 ========
  stconvert:
  alias:
  - st_analyzer
  type: org.elasticsearch.index.analysis.STConvertAnalyzerProvider
  s2t_convert:
  type: stconvert
  delimiter: ","
  convert_type: s2t
  t2s_convert:
  type: stconvert
  delimiter: ","
  convert_type: t2s
  s2t_keep_both_convert:
  type: stconvert
  delimiter: ","
  keep_both: 'true'
  convert_type: s2t
  t2s_keep_both_convert:
  type: stconvert
  delimiter: ","
  keep_both: 'true'
  convert_type: t2s
  #string2int:
  #type: org.elasticsearch.index.analysis.String2IntAnalyzerProvider
  # redis_server: 127.0.0.1
  # redis_port: 6379
  # redis_key: index1_type1_name1
  #custom_string2int:
  #type: custom
  #tokenizer: whitespace
  #filter:
  #- string2int
  #- lowercase
  # 路径分析
  path_analyzer:
  type: custom
  tokenizer: path_hierarchy
  # ======== ansj ========
  index_ansj:
  alias:
  - ansj_index_analyzer
  type: ansj_index
  user_path: ansj/user
  ambiguity: ansj/ambiguity.dic
  stop_path: ansj/stopLibrary.dic
  #is_name: false
  # s_num: true
  #is_quantifier: true
  redis: false
  #pool:
  #maxactive: 20
  # maxidle: 10
  #maxwait: 100
  #testonborrow: true
  #ip: 127.0.0.1:6379
  #channel: ansj_term
  query_ansj:
  alias:
  - ansj_query_analyzer
  type: ansj_query
  user_path: ansj/user
  ambiguity: ansj/ambiguity.dic
  stop_path: ansj/stopLibrary.dic
  #is_name: false
  # is_num: true
  # is_quantifier: true
  redis: false
  #pool:
  #maxactive: 20
  # maxidle: 10
  #maxwait: 100
  #testonborrow: true
  #ip: 127.0.0.1:6379
  #channel: ansj_term
  uax_url_email:
  tokenizer: uax_url_email
  filter: [standard, lowercase, stop]
  # ======== combo ========      
  combo:
  type: combo
  sub_analyzers:
  - ansj_index
  - ik_smart
  - mmseg_complex
  - uax_url_email
  - s2t_convert
  - t2s_convert
  - smartcn
  - simple_english_analyzer
  # 默认分析器
  index.analysis.analyzer.default.type: combo
  # 线程池设置
  threadpool:   
  index:   
  type: fixed   
  size: 30   
  queue: -1   
  reject_policy: caller

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-348154-1-1.html 上篇帖子: 爱死Maven了 下篇帖子: 打包和部署 OSGi Web 应用中遇到的几个问题
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表