We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
我自定义了两个 analyzer,一个使用 ik_max_word 最为 tokenizer,另一个使用 ik_smart 作为 tokenizer,其他设置完全相同,大概如下:
ik_max_word
ik_smart
{ analyzer : { ik_analyzer_synonyms_max_word : { type : 'custom', tokenizer : 'ik_max_word', filter : [ 'ik_synonyms_graph_filter' ] }, ik_analyzer_synonyms_smart : { type : 'custom', tokenizer : 'ik_smart', filter : [ 'ik_synonyms_graph_filter' ] } } }
对于同一个 Query,ik_smart 和 ik_max_word 的分词结果是差别很大的,但是使用我上面定义的两个 analyzer 时,分词结果是相同的,看起来都是使用 ik_max_word 分词之后再映射的同义词。
是我的配置有问题么?
=================
补充一下,不完全一样,使用 ik_smart 的分词结果还是更精炼一些,但是还是把一些词给分的更细了,暂时没看出来到底是什么逻辑。
The text was updated successfully, but these errors were encountered:
smart是把max中会有位置(文本内容)重复的词项在候选词项中去掉,获取一组位置不重复且长度更平均的词元
Sorry, something went wrong.
No branches or pull requests
我自定义了两个 analyzer,一个使用
ik_max_word
最为 tokenizer,另一个使用ik_smart
作为 tokenizer,其他设置完全相同,大概如下:对于同一个 Query,
ik_smart
和ik_max_word
的分词结果是差别很大的,但是使用我上面定义的两个 analyzer 时,分词结果是相同的,看起来都是使用ik_max_word
分词之后再映射的同义词。是我的配置有问题么?
=================
补充一下,不完全一样,使用
ik_smart
的分词结果还是更精炼一些,但是还是把一些词给分的更细了,暂时没看出来到底是什么逻辑。The text was updated successfully, but these errors were encountered: