隐藏

Solr搜索引擎 — 查询命令和两种中文分词使用

发布:2019/11/12 8:48:29作者:管理员 来源:本站 浏览次数:945

已经和mysql建立好了关联,可以查询和更新mysql的数据量,接下来就是进阶的使用方式了

附上:

喵了个咪的博客:http://w-blog.cn

Solr官网:http://lucene.apache.org/solr/

    PS:8.0.0版本已经发布,本文使用此时较为稳定的7.7.1版本

一,查询命令的基本使用

基本查询方式

q 查询的关键字,此参数最为重要,例如,q=id:1,默认为q=*:*,
fl 指定返回哪些字段,用逗号或空格分隔,注意:字段区分大小写,例如,fl= id,title,sort
start 返回结果的第几条记录开始,一般分页用,默认0开始
rows 指定返回结果最多有多少条记录,默认值为 10,配合start实现分页
sort 排序方式,例如id desc 表示按照 “id” 降序
wt (writer type)指定输出格式,有 xml, json, php等
fq (filter query)过虑查询,提供一个可选的筛选器查询。返回在q查询符合结果中同时符合的fq条件的查询结果,例如:q=id:1&fq=sort:[1 TO 5],找关键字id为1 的,并且sort是1到5之间的。
df 默认的查询字段,一般默认指定。
qt (query type)指定那个类型来处理查询请求,一般不用指定,默认是standard。
indent 返回的结果是否缩进,默认关闭,用 indent=true|on 开启,一般调试json,php,phps,ruby输出才有必要用这个参数。
version 查询语法的版本,建议不使用它,由服务器指定默认值。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11

检索运算符

“:” 指定字段查指定值,如返回所有值*:*
“?” 表示单个任意字符的通配
“*” 表示多个任意字符的通配(不能在检索的项开始使用*或者?符号)
“~” 表示模糊检索,如检索拼写类似于”roam”的项这样写:roam~将找到形如foam和roams的单词;roam~0.8,检索返回相似度在0.8以上的记录。
AND、|| 布尔操作符
OR、&& 布尔操作符
NOT、!、-(排除操作符不能单独与项使用构成查询)
“+” 存在操作符,要求符号”+”后的项必须在文档相应的域中存在²
( ) 用于构成子查询
[] 包含范围检索,如检索某时间段记录,包含头尾,date:[201507 TO 201510]
{} 不包含范围检索,如检索某时间段记录,不包含头尾date:{201507 TO 201510}

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11

二、IK中文分词

下载版本匹配的IK分词jar包

> cd server/solr-webapp/webapp/WEB-INF/lib
> wget https://search.maven.org/remotecontent?filepath=com/github/magese/ik-analyzer/7.7.1/ik-analyzer-7.7.1.jar -O ./ik-analyzer-7.7.1.jar
> wget https://search.maven.org/remotecontent?filepath=com/github/magese/ik-analyzer-solr7/7.x/ik-analyzer-solr7-7.x.jar -O ./ik-analyzer-solr7-7.x.jar

    1
    2
    3

定义fieldType对应IK分词

> vim server/solr/new_core/conf/managed-schema

<!-- 257行ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13

修改app_name 的 field类型

<field name="appName" type="text_ik" indexed="true" stored="true" />

    1

然后重启solr

> solr restart -force

    1

分词效果

这个时候去查询数据还是无法实现分词查询,需要重新初始化数据

查询时候就有分词的效果了

三、Solr自带中文分词

自带中文分词

> cp contrib/analysis-extras/lucene-libs/lucene-analyzers-smartcn-7.7.1.jar  server/solr-webapp/webapp/WEB-INF/lib

    1

配置自带分词fieldType

> vim server/solr/new_core/conf/managed-schema

<!-- 自带分词器 -->
<fieldType name="text_hmm_chinese" class="solr.TextField" positionIncrementGap="100">
  <analyzer type="index">
    <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
  </analyzer>
  <analyzer type="query">
    <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
  </analyzer>
</fieldType>

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11

自带分词效果(对比IK的词汇量是比自带的多的还支持扩展词汇)