Pattern Tokenizer(模式分词器)
Pattern Tokenizer 使用正则表达式分割文本。遇到单词分隔符将文本分割为词元, 或者将捕获到匹配的文本作为词元。
默认的匹配模式时 \W+ ,遇到非单词的字符时分割文本。
谨防病态的正则表达式
Pattern Tokenizer使用Java 正则表达式。
一个书写不当的正则表达式会导致运行缓慢,甚至抛出StackOverflowError 导致运行中的节点突然退出。
查看更多关于病态的正则表达式 和 如何避免。
输出示例
POST _analyze
{
"tokenizer": "pattern",
"text": "The foo_bar_size's default is 5."
}
上面的句子会生成如下的词元:
[ The, foo_bar_size, s, default, is, 5 ]
配置
Pattern Tokenizer 有以下参数:
group
将哪个捕获分组作为词元。默认是 -1。
配置示例
下面的例子中,我们配置Pattern Tokenizer 遇到逗号时分隔文本。
PUT my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "my_tokenizer"
}
},
"tokenizer": {
"my_tokenizer": {
"type": "pattern",
"pattern": ","
}
}
}
}
}
POST my_index/_analyze
{
"analyzer": "my_analyzer",
"text": "comma,separated,values"
}
输出为:
[ comma, separated, values ]
在下一个例子中,我们配置Pattern Tokenizer 遇到双引号( 忽视转义的引号 \" ) 时捕获分组。正则表达式如下:
"((?:\\"|[^"]|\\")*)"
解释:
起始的引号 "
开始捕获
一个 \" 或者其他 非" 的字符
重复直到无法匹配更多的字符
结束的引号
在写入到 JSON 中,"和\需要转义,因此表达式最终为:
\"((?:\\\\\"|[^\"]|\\\\\")+)\"
PUT my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "my_tokenizer"
}
},
"tokenizer": {
"my_tokenizer": {
"type": "pattern",
"pattern": "\"((?:\\\\\"|[^\"]|\\\\\")+)\"",
"group": 1
}
}
}
}
}
POST my_index/_analyze
{
"analyzer": "my_analyzer",
"text": "\"value\", \"value with embedded \\\" quote\""
}
输出为:
[ value, value with embedded \" quote ]
Last updated
Was this helpful?