原創博客,轉載請聯繫博主! (零)ElasticSearch架構概述 ElasticSearch是現在技術前沿的大數據引擎,常見的組合有ES+Logstash+Kibana作為一套成熟的日誌系統,其中Logstash是ETL工具,Kibana是數據分析展示平臺。ES讓人驚艷的是他強大的搜索相關能力和
原創博客,轉載請聯繫博主!
(零)ElasticSearch架構概述
ElasticSearch是現在技術前沿的大數據引擎,常見的組合有ES+Logstash+Kibana作為一套成熟的日誌系統,其中Logstash是ETL工具,Kibana是數據分析展示平臺。ES讓人驚艷的是他強大的搜索相關能力和災備策略,ES開放了一些介面供開發者研發自己的插件,ES結合中文分詞的插件會給ES的搜索和分析起到很大的推動作用。ElasticSearch是使用開源全文檢索庫ApacheLucene進行索引和搜索的,說架構必須和Lucene的一些東西打交道。
關於Lucene:
ApacheLucene將寫入索引的所有信息組織成一種倒排索引(Inverted Index)的結構之中,該結構是種將詞項映射到文檔的數據結構。其工作方式與傳統的關係資料庫不同,大致來說倒排索引是面向詞項而不是面向文檔的。且Lucene索引之中還存儲了很多其他的信息,如詞向量等等,每個Lucene都是由多個段構成的,每個段只會被創建一次但會被查詢多次,段一旦創建就不會再被修改。多個段會在段合併的階段合併在一起,何時合併由Lucene的內在機制決定,段合併後數量會變少,但是相應的段本身會變大。段合併的過程是非常消耗I/O的,且與之同時會有些不再使用的信息被清理掉。在Lucene中,將數據轉化為倒排索引,將完整串轉化為可用於搜索的詞項的過程叫做分析。文本分析由分析器(Analyzer)來執行,分析其由分詞器(Tokenizer),過濾器(Filter)和字元映射器(Character Mapper)組成,其各個功能顯而易見。除此之外,Lucene有自己的一套完整的查詢語言來幫助我們進行搜索和讀寫。
[註]ES中的索引指的是查詢/定址時URI中的一個欄位如:[host]:[port(9200)]/[index]/[type]/[ID]?[option],而Lucene中的索引更多地和ES中的分片的概念相對應。
回到ElasticSearch,ES的架構遵循的設計理念有以下幾個特征:
1. 合理的預設配置:只需修改節點中的Yaml配置文件,就可以迅捷配置。這和Spring4中對配置的簡化有相似的地方。
2. 分散式工作模式:ES強大的Zen發現機制不僅支持組廣播也支持點單播,且有“知一點即知天下”之妙。
3. 對等架構:節點之間自動備份分片,且使分片本身和樣本之間儘量”遠離“,可以避免單點故障。且Master節點和Data節點幾乎完全等價。
4. 易於向集群擴充新節點:大大簡化研發或運維將新節點加入集群所需的工作。
5. 不對索引中的數據結構增加任何限制:ES支持在一個索引之中存在多種數據類型。
6. 準實時:搜索和版本同步,由於ES是分散式應用,一個重大的挑戰就是一致性問題,無論索引還是文檔數據,然而事實證明ES表現優秀。
(一)分片策略
選擇合適的分片數和副本數。ES的分片分為兩種,主分片(Primary Shard)和副本(Replicas)。預設情況下,ES會為每個索引創建5個分片,即使是在單機環境下,這種冗餘被稱作過度分配(Over Allocation),目前看來這麼做完全沒有必要,僅在散佈文檔到分片和處理查詢的過程中就增加了更多的複雜性,好在ES的優秀性能掩蓋了這一點。假設一個索引由一個分片構成,那麼當索引的大小超過單個節點的容量的時候,ES不能將索引分割成多份,因此必須在創建索引的時候就指定好需要的分片數量。此時我們所能做的就是創建一個新的索引,併在初始設定之中指定這個索引擁有更多的分片。反之如果過度分配,就增大了Lucene在合併分片查詢結果時的複雜度,從而增大了耗時,所以我們得到了以下結論:
我們應該使用最少的分片!
主分片,副本和節點最大數之間數量存在以下關係:
節點數<=主分片數*(副本數+1)
控制分片分配行為。以上是在創建每個索引的時候需要考慮的優化方法,然而在索引已創建好的前提下,是否就是沒有辦法從分片的角度提高了性能了呢?當然不是,首先能做的是調整分片分配器的類型,具體是在elasticsearch.yml中設置cluster.routing.allocation.type屬性,共有兩種分片器even_shard,balanced(預設)。even_shard是儘量保證每個節點都具有相同數量的分片,balanced是基於可控制的權重進行分配,相對於前一個分配器,它更暴漏了一些參數而引入調整分配過程的能力。
每次ES的分片調整都是在ES上的數據分佈發生了變化的時候進行的,最有代表性的就是有新的數據節點加入了集群的時候。當然調整分片的時機並不是由某個閾值觸發的,ES內置十一個裁決者來決定是否觸發分片調整,這裡暫不贅述。另外,這些分配部署策略都是可以在運行時更新的,更多配置分片的屬性也請大家自行Google。
(二)路由優化
ES中所謂的路由和IP網路不同,是一個類似於Tag的東西。在創建文檔的時候,可以通過欄位為文檔增加一個路由屬性的Tag。ES內在機制決定了擁有相同路由屬性的文檔,一定會被分配到同一個分片上,無論是主分片還是副本。那麼,在查詢的過程中,一旦指定了感興趣的路由屬性,ES就可以直接到相應的分片所在的機器上進行搜索,而避免了複雜的分散式協同的一些工作,從而提升了ES的性能。於此同時,假設機器1上存有路由屬性A的文檔,機器2上存有路由屬性為B的文檔,那麼我在查詢的時候一旦指定目標路由屬性為A,即使機器2故障癱瘓,對機器1構不成很大影響,所以這麼做對災況下的查詢也提出瞭解決方案。所謂的路由,本質上是一個分桶(Bucketing)操作。當然,查詢中也可以指定多個路由屬性,機制大同小異。
(三)ES上的GC調優
ElasticSearch本質上是個Java程式,所以配置JVM垃圾回收器本身也是一個很有意義的工作。我們使用JVM的Xms和Xmx參數來提供指定記憶體大小,本質上提供的是JVM的堆空間大小,當JVM的堆空間不足的時候就會觸發致命的OutOfMemoryException。這意味著要麼記憶體不足,要麼出現了記憶體泄露。處理GC問題,首先要確定問題的源頭,一般有兩種方案:
1. 開啟ElasticSearch上的GC日誌
2. 使用jstat命令
3. 生成記憶體Dump
關於第一條,在ES的配置文件elasticsearch.yml中有相關的屬性可以配置,關於每個屬性的用途這裡當然說不完。
第二條,jstat命令可以幫助我們查看JVM堆中各個區的使用情況和GC的耗時情況。
第三條,最後的辦法就是將JVM的堆空間轉儲到文件中去,實質上是對JVM堆空間的一個快照。
想瞭解更多關於JVM本身GC調優方法請參考:http://www.oracle.com/technetwork/java/javase/gc-tuning-6-140523.html
另外,通過修改ES節點的啟動參數,也可以調整GC的方式,但是實質上和上述方法是等同的。
(四)避免記憶體交換
這一點很簡單,由於操作系統的虛擬記憶體頁交換機制,會給性能帶來障礙,如數據寫滿記憶體會寫入Linux中的Swap分區。
可以通過在elasticsearch.yml文件中的bootstrap.mlockall設置為true來實現,但是需要管理員許可權,需要修改操作系統的相關配置文件。
(五)控制索引合併
上文提到過,ES中的分片和副本本質上都是Lucene索引,而Lucene索引又基於多個索引段構建(至少一個),索引文件中的絕大多數都是只被寫一次,讀多次,在Lucene內在機制控制下,當滿足某種條件的時候多個索引段會被合併到一個更大的索引段,而那些舊的索引段會被拋棄並移除磁碟,這個操作叫做段合併。
Lucene要執行段合併的理由很簡單充分:索引段粒度越小,查詢性能越低且耗費的記憶體越多。頻繁的文檔更改操作會導致大量的小索引段,從而導致文件句柄打開過多的問題,如修改系統配置,增大系統允許的最大文件打開數。總的來講,當索引段由多一個合併為一個的時候,會減少索引段的數量從而提高ES性能。對於研發者來講,我們所能做的就是選擇合適的合併策略,儘管段合併完全是Lucene的任務,但隨著Lucene開放更多配置藉口,新版本的ES還是提供了三種合併的策略tiered,log_byte_size,log_doc。另外,ES也提供了兩種Lucene索引段合併的調度器:concurrent和serial。其中各者具體區別,這裡暫不贅述,只是拋磚引玉。
打字好累,大家晚安。