這篇文章主要來介紹下什麼是 Analysis ,什麼是分詞器,以及 ElasticSearch 自帶的分詞器是怎麼工作的,最後會介紹下中文分詞是怎麼做的。 首先來說下什麼是 Analysis: 什麼是 Analysis? 顧名思義,文本分析就是 把全文本轉換成一系列單詞(term/token)的過程 ...
這篇文章主要來介紹下什麼是 Analysis ,什麼是分詞器,以及 ElasticSearch 自帶的分詞器是怎麼工作的,最後會介紹下中文分詞是怎麼做的。
首先來說下什麼是 Analysis:
什麼是 Analysis?
顧名思義,文本分析就是把全文本轉換成一系列單詞(term/token)的過程,也叫分詞。在 ES 中,Analysis 是通過分詞器(Analyzer) 來實現的,可使用 ES 內置的分析器或者按需定製化分析器。
舉一個分詞簡單的例子:比如你輸入 Mastering Elasticsearch
,會自動幫你分成兩個單詞,一個是 mastering
,另一個是 elasticsearch
,可以看出單詞也被轉化成了小寫的。
再簡單瞭解了 Analysis 與 Analyzer 之後,讓我們來看下分詞器的組成:
分詞器的組成
分詞器是專門處理分詞的組件,分詞器由以下三部分組成:
- Character Filters:針對原始文本處理,比如去除 html 標簽
- Tokenizer:按照規則切分為單詞,比如按照空格切分
- Token Filters:將切分的單詞進行加工,比如大寫轉小寫,刪除 stopwords,增加同義語
同時 Analyzer 三個部分也是有順序的,從圖中可以看出,從上到下依次經過 Character Filters
,Tokenizer
以及 Token Filters
,這個順序比較好理解,一個文本進來肯定要先對文本數據進行處理,再去分詞,最後對分詞的結果進行過濾。
其中,ES 內置了許多分詞器:
- Standard Analyzer - 預設分詞器,按詞切分,小寫處理
- Simple Analyzer - 按照非字母切分(符號被過濾),小寫處理
- Stop Analyzer - 小寫處理,停用詞過濾(the ,a,is)
- Whitespace Analyzer - 按照空格切分,不轉小寫
- Keyword Analyzer - 不分詞,直接將輸入當做輸出
- Pattern Analyzer - 正則表達式,預設 \W+
- Language - 提供了 30 多種常見語言的分詞器
- Customer Analyzer - 自定義分詞器
接下來會對以上分詞器進行講解,在講解之前先來看下很有用的 API:_analyzer API
:
Analyzer API
它可以通過以下三種方式來查看分詞器是怎麼樣工作的:
- 直接指定 Analyzer 進行測試
GET _analyze
{
"analyzer": "standard",
"text" : "Mastering Elasticsearch , elasticsearch in Action"
}
- 指定索引的欄位進行測試
POST books/_analyze
{
"field": "title",
"text": "Mastering Elasticesearch"
}
- 自定義分詞進行測試
POST /_analyze
{
"tokenizer": "standard",
"filter": ["lowercase"],
"text": "Mastering Elasticesearch"
}
再瞭解了 Analyzer API 後,讓我們一起看下 ES 內置的分詞器:
ES 分詞器
首先來介紹下 Stamdard Analyzer
分詞器:
Stamdard Analyzer
它是 ES 預設的分詞器,它會對輸入的文本按詞的方式進行切分,切分好以後會進行轉小寫處理,預設的 stopwords 是關閉的。
下麵使用 Kibana 看一下它是怎麼樣進行工作的,在 Kibana 的開發工具(Dev Tools)中指定 Analyzer 為 standard
,並輸入文本 In 2020, Java is the best language in the world.
,然後我們運行一下:
GET _analyze
{
"analyzer": "standard",
"text": "In 2020, Java is the best language in the world."
}
運行結果如下:
{
"tokens" : [
{
"token" : "in",
"start_offset" : 0,
"end_offset" : 2,
"type" : "<ALPHANUM>",
"position" : 0
},
{
"token" : "2020",
"start_offset" : 3,
"end_offset" : 7,
"type" : "<NUM>",
"position" : 1
},
{
"token" : "java",
"start_offset" : 9,
"end_offset" : 13,
"type" : "<ALPHANUM>",
"position" : 2
},
{
"token" : "is",
"start_offset" : 14,
"end_offset" : 16,
"type" : "<ALPHANUM>",
"position" : 3
},
{
"token" : "the",
"start_offset" : 17,
"end_offset" : 20,
"type" : "<ALPHANUM>",
"position" : 4
},
{
"token" : "best",
"start_offset" : 21,
"end_offset" : 25,
"type" : "<ALPHANUM>",
"position" : 5
},
{
"token" : "language",
"start_offset" : 26,
"end_offset" : 34,
"type" : "<ALPHANUM>",
"position" : 6
},
{
"token" : "in",
"start_offset" : 35,
"end_offset" : 37,
"type" : "<ALPHANUM>",
"position" : 7
},
{
"token" : "the",
"start_offset" : 38,
"end_offset" : 41,
"type" : "<ALPHANUM>",
"position" : 8
},
{
"token" : "world",
"start_offset" : 42,
"end_offset" : 47,
"type" : "<ALPHANUM>",
"position" : 9
}
]
}
可以看出是按照空格、非字母的方式對輸入的文本進行了轉換,比如對 Java
做了轉小寫,對一些停用詞也沒有去掉,比如 in
。
其中 token
為分詞結果;start_offset
為起始偏移;end_offset
為結束偏移;position
為分詞位置。
下麵來看下 Simple Analyzer
分詞器:
Simple Analyzer
它只包括了 Lower Case
的 Tokenizer
,它會按照非字母切分,非字母的會被去除,最後對切分好的做轉小寫處理,然後接著用剛纔的輸入文本,分詞器換成 simple
來進行分詞,運行結果如下:
{
"tokens" : [
{
"token" : "in",
"start_offset" : 0,
"end_offset" : 2,
"type" : "word",
"position" : 0
},
{
"token" : "java",
"start_offset" : 9,
"end_offset" : 13,
"type" : "word",
"position" : 1
},
{
"token" : "is",
"start_offset" : 14,
"end_offset" : 16,
"type" : "word",
"position" : 2
},
{
"token" : "the",
"start_offset" : 17,
"end_offset" : 20,
"type" : "word",
"position" : 3
},
{
"token" : "best",
"start_offset" : 21,
"end_offset" : 25,
"type" : "word",
"position" : 4
},
{
"token" : "language",
"start_offset" : 26,
"end_offset" : 34,
"type" : "word",
"position" : 5
},
{
"token" : "in",
"start_offset" : 35,
"end_offset" : 37,
"type" : "word",
"position" : 6
},
{
"token" : "the",
"start_offset" : 38,
"end_offset" : 41,
"type" : "word",
"position" : 7
},
{
"token" : "world",
"start_offset" : 42,
"end_offset" : 47,
"type" : "word",
"position" : 8
}
]
}
從結果中可以看出,數字 2020
被去除掉了,說明非字母的的確會被去除,所有的詞也都做了小寫轉換。
現在,我們來看下 Whitespace Analyzer
分詞器:
Whitespace Analyzer
它非常簡單,根據名稱也可以看出是按照空格進行切分的,下麵我們來看下它是怎麼樣工作的:
{
"tokens" : [
{
"token" : "In",
"start_offset" : 0,
"end_offset" : 2,
"type" : "word",
"position" : 0
},
{
"token" : "2020,",
"start_offset" : 3,
"end_offset" : 8,
"type" : "word",
"position" : 1
},
{
"token" : "Java",
"start_offset" : 9,
"end_offset" : 13,
"type" : "word",
"position" : 2
},
{
"token" : "is",
"start_offset" : 14,
"end_offset" : 16,
"type" : "word",
"position" : 3
},
{
"token" : "the",
"start_offset" : 17,
"end_offset" : 20,
"type" : "word",
"position" : 4
},
{
"token" : "best",
"start_offset" : 21,
"end_offset" : 25,
"type" : "word",
"position" : 5
},
{
"token" : "language",
"start_offset" : 26,
"end_offset" : 34,
"type" : "word",
"position" : 6
},
{
"token" : "in",
"start_offset" : 35,
"end_offset" : 37,
"type" : "word",
"position" : 7
},
{
"token" : "the",
"start_offset" : 38,
"end_offset" : 41,
"type" : "word",
"position" : 8
},
{
"token" : "world.",
"start_offset" : 42,
"end_offset" : 48,
"type" : "word",
"position" : 9
}
]
}
可以看出,只是按照空格進行切分,2020
數字還是在的,Java
的首字母還是大寫的,,
還是保留的。
接下來看 Stop Analyzer
分詞器:
Stop Analyzer
它由 Lowe Case
的 Tokenizer
和 Stop
的 Token Filters
組成的,相較於剛纔提到的 Simple Analyzer
,多了 stop 過濾,stop 就是會把 the
,a
,is
等修飾詞去除,同樣讓我們看下運行結果:
{
"tokens" : [
{
"token" : "java",
"start_offset" : 9,
"end_offset" : 13,
"type" : "word",
"position" : 1
},
{
"token" : "best",
"start_offset" : 21,
"end_offset" : 25,
"type" : "word",
"position" : 4
},
{
"token" : "language",
"start_offset" : 26,
"end_offset" : 34,
"type" : "word",
"position" : 5
},
{
"token" : "world",
"start_offset" : 42,
"end_offset" : 47,
"type" : "word",
"position" : 8
}
]
}
可以看到 in
is
the
等詞都被 stop filter
過濾掉了。
接下來看下 Keyword Analyzer
:
Keyword Analyzer
它其實不做分詞處理,只是將輸入作為 Term 輸出,我們來看下運行結果:
{
"tokens" : [
{
"token" : "In 2020, Java is the best language in the world.",
"start_offset" : 0,
"end_offset" : 48,
"type" : "word",
"position" : 0
}
]
}
我們可以看到,沒有對輸入文本進行分詞,而是直接作為 Term 輸出了。
接下來看下 Pattern Analyzer
:
Pattern Analyzer
它可以通過正則表達式的方式進行分詞,預設是用 \W+
進行分割的,也就是非字母的符合進行切分的,由於運行結果和 Stamdard Analyzer
一樣,就不展示了。
Language Analyzer
ES 為不同國家語言的輸入提供了 Language Analyzer
分詞器,在裡面可以指定不同的語言,我們用 english
進行分詞看下:
{
"tokens" : [
{
"token" : "2020",
"start_offset" : 3,
"end_offset" : 7,
"type" : "<NUM>",
"position" : 1
},
{
"token" : "java",
"start_offset" : 9,
"end_offset" : 13,
"type" : "<ALPHANUM>",
"position" : 2
},
{
"token" : "best",
"start_offset" : 21,
"end_offset" : 25,
"type" : "<ALPHANUM>",
"position" : 5
},
{
"token" : "languag",
"start_offset" : 26,
"end_offset" : 34,
"type" : "<ALPHANUM>",
"position" : 6
},
{
"token" : "world",
"start_offset" : 42,
"end_offset" : 47,
"type" : "<ALPHANUM>",
"position" : 9
}
]
}
可以看出 language
被改成了 languag
,同時它也是有 stop 過濾器的,比如 in
,is
等詞也被去除了。
最後,讓我們看下中文分詞:
中文分詞
中文分詞有特定的難點,不像英文,單詞有自然的空格作為分隔,在中文句子中,不能簡單地切分成一個個的字,而是需要分成有含義的詞,但是在不同的上下文,是有不同的理解的。
比如以下例子:
在這些,企業中,國有,企業,有十個/在這些,企業,中國,有企業,有十個
各國,有,企業,相繼,倒閉/各,國有,企業,相繼,倒閉
羽毛球,拍賣,完了/羽毛球拍,賣,完了
那麼,讓我們來看下 ICU Analyzer
分詞器,它提供了 Unicode 的支持,更好的支持亞洲語言!
我們先用 standard
來分詞,以便於和 ICU 進行對比。
GET _analyze
{
"analyzer": "standard",
"text": "各國有企業相繼倒閉"
}
運行結果就不展示了,分詞是一個字一個字切分的,明顯效果不是很好,接下來用 ICU 進行分詞,分詞結果如下:
{
"tokens" : [
{
"token" : "各國",
"start_offset" : 0,
"end_offset" : 2,
"type" : "<IDEOGRAPHIC>",
"position" : 0
},
{
"token" : "有",
"start_offset" : 2,
"end_offset" : 3,
"type" : "<IDEOGRAPHIC>",
"position" : 1
},
{
"token" : "企業",
"start_offset" : 3,
"end_offset" : 5,
"type" : "<IDEOGRAPHIC>",
"position" : 2
},
{
"token" : "相繼",
"start_offset" : 5,
"end_offset" : 7,
"type" : "<IDEOGRAPHIC>",
"position" : 3
},
{
"token" : "倒閉",
"start_offset" : 7,
"end_offset" : 9,
"type" : "<IDEOGRAPHIC>",
"position" : 4
}
]
}
可以看到分成了各國
,有
,企業
,相繼
,倒閉
,顯然比剛纔的效果好了很多。
還有許多中文分詞器,在這裡列舉幾個:
IK:
- 支持自定義詞庫,支持熱更新分詞字典
- https://github.com/medcl/elasticsearch-analysis-ik
jieba:
- Python 中最流行的分詞系統,支持分詞和詞性標註
- 支持繁體分詞、自定義詞典、並行分詞等
- https://github.com/sing1ee/elasticsearch-jieba-plugin
THULAC:
- THU Lexucal Analyzer for Chinese, 清華大學自然語言處理和社會人文計算實驗室的一套中文分詞器
- https://github.com/thunlp/THULAC-Java
大家可以自己安裝下,看下它中文分詞效果。
總結
本文主要介紹了 ElasticSearch 自帶的分詞器,學習了使用 _analyzer API
去查看它的分詞情況,最後還介紹下中文分詞是怎麼做的。
參考文獻
Elasticsearch頂尖高手系列
Elasticsearch核心技術與實戰
https://www.elastic.co/guide/en/elasticsearch/reference/7.1/indices-analyze.html
https://www.elastic.co/guide/en/elasticsearch/reference/current/analyzer-anatomy.html