ClickHouse 是一個真正的列式資料庫管理系統(DBMS)。在 ClickHouse 中,數據始終是按列存儲的,包括矢量(向量或列塊)執行的過程。只要有可能,操作都是基於矢量進行分派的,而不是單個的值,這被稱為«矢量化查詢執行»,它有利於降低實際的數據處理開銷。 ...
1 需求分析
1.1 分析壓測對象
1)什麼是ClickHouse 和Elasticsearch
ClickHouse 是一個真正的列式資料庫管理系統(DBMS)。在 ClickHouse 中,數據始終是按列存儲的,包括矢量(向量或列塊)執行的過程。只要有可能,操作都是基於矢量進行分派的,而不是單個的值,這被稱為«矢量化查詢執行»,它有利於降低實際的數據處理開銷。
Elasticsearch是一個開源的分散式、RESTful 風格的搜索和數據分析引擎,它的底層是開源庫Apache Lucene。 它可以被這樣準確地形容:
- 一個分散式的實時文檔存儲,每個欄位可以被索引與搜索
- 一個分散式實時分析搜索引擎
- 能勝任上百個服務節點的擴展,並支持 PB 級別的結構化或者非結構化數據
2)為什麼要對他們進行壓測
眾所周知,ClickHouse在基本場景表現非常優秀,性能優於ES,但是我們實際的業務查詢中有很多是複雜的業務查詢場景,甚至是大數量的查詢,所以為了在雙十一業務峰值來到前,確保大促活動峰值業務穩定性,針對ClickHouse 和Elasticsearch在我們實際業務場景中是否擁有優秀的抗壓能力,通過這次性能壓測,探測系統中的性能瓶頸點,進行針對性優化,從而提升系統性能。
1.2 制定壓測目標
為什麼會選擇這個(queryOBBacklogData)介面呢?
1)從複雜度來看,介面(queryOBBacklogData)查詢了5次,代碼如下:
/** * 切ck-queryOBBacklogData * @param queryBO * @return */ public OutboundBacklogRespBO queryOBBacklogDataCKNew(OutboundBacklogQueryBO queryBO) { log.info(" queryOBBacklogDataCK入參:{}", JSON.toJSONString(queryBO)); // 公共條件-卡最近十天時間 String commonStartTime = DateUtils.getTime(DateUtil.format(new Date(), DateUtil.FORMAT_DATE), DateUtils.ELEVEN_AM, 1, -10); String commonEndTime = DateUtils.getTime(DateUtil.format(new Date(), DateUtil.FORMAT_DATE), DateUtils.ELEVEN_AM, 1, 1); // 越庫信息-待越庫件數&待越庫任務數 WmsObCrossDockQueryBo wmsObCrossDockQueryBo = wmsObCrossDockQueryBoBuilder(queryBO,commonStartTime, commonEndTime); log.info("queryOBBacklogDataCK-wmsObCrossDockQueryBo: {}", JSON.toJSONString(wmsObCrossDockQueryBo)); CompletableFuture<OutboundBacklogRespBO> preCrossDockInfoCF = CompletableFuture.supplyAsync( () -> wmsObCrossDockMapper.preCrossDockInfo(wmsObCrossDockQueryBo), executor); // 集合任務信息-待分配訂單 WmsObAssignOrderQueryBo wmsObAssignOrderQueryBo = wmsObAssignOrderQueryBoBuilder(queryBO, commonStartTime, commonEndTime); log.info("queryOBBacklogDataCK-wmsObAssignOrderQueryBo: {}", JSON.toJSONString(wmsObAssignOrderQueryBo)); CompletableFuture<Integer> preAssignOrderQtyCF = CompletableFuture.supplyAsync( () -> wmsObAssignOrderMapper.preAssignOrderInfo(wmsObAssignOrderQueryBo), executor); // 揀貨信息-待揀貨件數&待揀貨任務數 WmsPickTaskQueryBo wmsPickTaskQueryBo = wmsPickTaskQueryBoBuilder(queryBO, commonStartTime, commonEndTime); log.info("queryOBBacklogDataCK-wmsPickTaskQueryBo: {}", JSON.toJSONString(wmsPickTaskQueryBo)); CompletableFuture<OutboundBacklogRespBO> prePickingInfoCF = CompletableFuture.supplyAsync( () -> wmsPickTaskMapper.pickTaskInfo(wmsPickTaskQueryBo), executor); // 分播信息-待分播件數&待分播任務 WmsCheckTaskDetailQueryBo wmsCheckTaskDetailQueryBo = wmsCheckTaskDetailQueryBoBuilder(queryBO, commonStartTime, commonEndTime); log.info("queryOBBacklogDataCK-wmsCheckTaskDetailQueryBo: {}", JSON.toJSONString(wmsCheckTaskDetailQueryBo)); CompletableFuture<OutboundBacklogRespBO> preSowInfoCF = CompletableFuture.supplyAsync( () -> wmsCheckTaskDetailMapper.checkTaskDetailInfo(wmsCheckTaskDetailQueryBo), executor); // 發貨信息-待發貨件數 WmsOrderSkuQueryBo wmsOrderSkuQueryBo = wmsOrderSkuQueryBoBuilder(queryBO, commonStartTime, commonEndTime); log.info("queryOBBacklogDataCK-wmsOrderSkuQueryBo: {}", JSON.toJSONString(wmsOrderSkuQueryBo)); CompletableFuture<Integer> preDispatchCF = CompletableFuture.supplyAsync( () -> wmsOrderSkuMapper.preDispatchInfo(wmsOrderSkuQueryBo), executor); return processResult(preCrossDockInfoCF, preAssignOrderQtyCF, prePickingInfoCF, preSowInfoCF, preDispatchCF); }
2)介面(queryOBBacklogData),總共查詢了5個表,如下:
wms.wms_ob_cross_dock
wms.wms_ob_assign_order
wms.wms_picking_task.
wms.wms_check_task_detail
wms.wms_order_sku
3)查詢的數據量,如下:
select (ifnull(sum(m.shouldBeCrossedDockQty), 0) - ifnull(sum(m.satisfiedCrossedDockQty), 0)) as preCrossStockSkuQty, count(m.docId) as preCrossStockTaskQty from wms.wms_ob_cross_dock m final prewhere m.createTime >= '2021-12-03 11:00:00' and m.createTime <= '2021-12-14 11:00:00' and m.warehouseNo = '279_1' and m.orderType = '10' and tenantCode = 'TC90230202' where m.deleted = 0 and m.deliveryDestination = '2' and m.shipmentOrderDeleted = 0 and m.status = 0
從上面SQL截圖可以看出,查詢待越庫件數&待越庫任務數,共讀了720817行數據
select count(distinct m.orderNo) as preAssignedOrderQty from wms.wms_ob_assign_order m final prewhere m.createTime >= '2021-12-03 11:00:00' and m.createTime <= '2021-12-14 11:00:00' and m.warehouseNo = '361_0' and tenantCode = 'TC90230202' where m.taskassignStatus = 0 and m.deliveryDestination = 2 and m.stopProductionFlag = 0 and m.deleted = 0 and m.orderType = 10
從上面SQL截圖可以看出,查詢集合任務信息-待分配訂單,共讀了153118行數據
select minus(toInt32(ifnull(sum(m.locateQty), toDecimal64(0, 4))), toInt32(ifnull(sum(m.pickedQty), toDecimal64(0, 4)))) as prePickingSkuQty, count(distinct m.taskNo) as prePickingTaskQty from wms.wms_picking_task m final prewhere m.shipmentOrderCreateTime >= '2021-12-03 11:00:00' and m.shipmentOrderCreateTime <= '2021-12-14 11:00:00' and m.warehouseNo = '286_1' and tenantCode = 'TC90230202' where m.pickingTaskDeleted = 0 and m.deliveryDestination = 2 and m.pickLocalDetailDeleted = 0 and m.shipmentOrderDeleted = 0 and m.orderType = 10 and (m.operateStatus = 0 or m.operateStatus = 1)
從上面SQL截圖可以看出,查詢揀貨信息-待揀貨件數&待揀貨任務數,共讀了2673536行數據
select minus(toInt32(ifnull(sum(m.locateQty), toDecimal64(0, 4))), toInt32(ifnull(sum(m.pickedQty), toDecimal64(0, 4)))) as prePickingSkuQty, count(distinct m.taskNo) as prePickingTaskQty from wms.wms_picking_task m final prewhere m.shipmentOrderCreateTime >= '2021-12-03 11:00:00' and m.shipmentOrderCreateTime <= '2021-12-14 11:00:00' and m.warehouseNo = '279_1' and tenantCode = 'TC90230202' where m.pickingTaskDeleted = 0 and m.deliveryDestination = 2 and m.pickLocalDetailDeleted = 0 and m.shipmentOrderDeleted = 0 and m.orderType = 10 and (m.operateStatus = 0 or m.operateStatus = 1)
從上面SQL截圖可以看出,查詢分播信息-待分播件數&待分播任務,共讀了1448149行數據
select ifnull(sum(m.unTrackQty), 0) as unTrackQty from wms.wms_order_sku m final prewhere m.shipmentOrderCreateTime >= '2021-12-03 11:00:00' and m.shipmentOrderCreateTime <= '2021-12-14 11:00:00' and m.warehouseNo = '280_1' and m.orderType = '10' and m.deliveryDestination = '2' and tenantCode = 'TC90230202' where m.shipmentOrderDeleted <> '1' and m.ckDeliveryTaskDeleted <> '1' and m.ckDeliveryTaskDetailDeleted <> '1' and m.ckDeliveryTaskStatus in ('1','0','2')
從上面SQL截圖可以看出,查詢發貨信息-待發貨件數,共讀了99591行數據
2 測試環境準備
為了儘可能發揮性能壓測作用,性能壓測環境應當儘可能同線上環境一致,所以我們使用了和線上一樣的環境
3 採集工具準備
監控工具
- http://origin.jd.com/ :監控JVM,方法級別監控(提供秒級支持)
- http://console.jex.jd.com/ :提供異常堆棧監控,火焰圖監控、線程堆棧分析
- http://x.devops.jdcloud.com/ :支持查看clickhouse/Elasticsearch資料庫服務每個節點的cpu使用率
- http://dashboard.fireeye.jdl.cn/ :監測應用伺服器cpu使用率、記憶體使用率
4 壓測執行及結果分析
4.1 編寫壓測腳本工具
Forcebot(http://forcebot.jd.com) 是專門為開發人員、測試人員提供的性能測試平臺,通過編寫腳本、配置監控、設置場景、啟動任務、實時監控、日誌定位、導出報告一系列操作流程來完成性能測試,靈活的腳本配置滿足同步、非同步、集合點等多種發壓模式。
幫助文檔(http://doc.jd.com/forcebot/helper/)
4.2 設計壓測數據
4.2.1 前期壓測中名詞解釋
- DBCP:資料庫連接池,是 apache 上的一個Java連接池項目。DBCP通過連接池預先同資料庫建立一些連接放在記憶體中(即連接池中),應用程式需要建立資料庫連接時直接到從接池中申請一個連接使用,用完後由連接池回收該連接,從而達到連接復用,減少資源消耗的目的。
- maxTotal:是連接池中總連接的最大數量,預設值8
- max_thread:clickhouse中底層配置,處理SQL請求時使用的最大線程數。預設值是clickhouse伺服器的核心數量。
- coordinating:協調節點數,主要作用於請求轉發,請求響應處理等輕量級操作
- 數據節點:主要是存儲索引數據的節點,主要對文檔進行增刪改查操作,聚合操作等。數據節點對cpu,記憶體,io要求較高, 在優化的時候需要監控數據節點的狀態,當資源不夠的時候,需要在集群中添加新的節點
4.2.2 壓測數據
clickhouse數據服務:32C128G6節點2副本
應用伺服器:4核8G2
maxTotal=16
註:每次壓測前,一定要觀察每個數據節點的cpu使用率
註:從上面壓測過程中,序號6-12可以看出,併發用戶數在增加,但tps沒有幅度變化,檢查發現bigdata dbcp資料庫鏈接池最大線程數未配置,預設最大線程數是8,併發用戶數增加至8以後,clickhouse cpu穩定在40%~50%之間不再增加,應用伺服器CPU穩定在25%左右。
之後我們調整maxTotal=50,通過調整max_thread不同的值,資料庫節點CPU使用率保持在50%左右,來查看相應的監測數據指標:應用服務CPU使用率、TPS、TP99、併發用戶數。
clickhouse數據節點,CPU使用率:
Elasticsearch數據服務:32C128G6節點2副本
應用伺服器:4核8G2
Elasticsearch同樣保持資料庫服務CPU使用率達到(50%左右),再監控數據指標tps、tp99
調整指標如下:coordinating協調節點數、 數據節點、poolSize
指標1:coordinating=2,數據節點=4,poolSize=400
註:在壓測的過程中發現,coordinating節點的cpu使用率達到51.69%,負載均衡的作用受限,所以協調節點需擴容2個節點
指標2:coordinating=4,數據節點=5,poolSize=800
註:在壓測的過程中,發現CPU使用率(資料庫)ES數據節點在40%左右的時候,一直上不去,查看日誌發現activeCount已經達到797,需要增加poolSize值
指標3:coordinating=4,數據節點=5,poolSize=1200
註:壓測過程中,發現coordinating協調節點還是需要擴容,不能支持現在數據節點cpu使用率達到50%
Elasticsearch數據節點及協調節點,CPU使用率:
我們在壓測的過程中發現一些之前在開發過程中沒發現的問題,首先bdcp數bigdata應用伺服器,使用的線程池最大線程數為8時,成為瓶頸,用戶數增加至8以後, clickhouse的cpu穩定在40%~50%之間不在增加,應用伺服器CPU穩定在25%左右,其次warehouse集群協調節點配置低,協調節點CPU使用率高,最後是clickhouse-jdbc JavaCC解析sql效率低。
4.3 結果分析
4.3.1 測試結論
1)clickhouse對併發有一定的支持,並不是不支持高併發,可以通過調整max_thread提高併發
- max_thread=32時,支持最大TPS 是37,相應TP99是122
- max_thread=2時,支持最大TPS 是66,相應TP99是155
- max_thread=1時,支持最大TPS 是86,相應TP99是206
2)在併發方面Elasticsearch比clickhouse支持的更好,但是相應的響應速度慢很多
- Elasticsearch:對應的TPS是192,TP99是3050
- clickhouse:對應的TPS 是86,TP99是206
綜合考量,我們認為clickhouse足以支撐我們的業務訴求
4.3.2 優化建議
- 對ES協調節點進行擴容
- bigdata應用線程池最大線程數調高至200
- bigdata應用 dbcp線程池maxTotal設置成50
- 讀取配置文件工具類增加記憶體緩存
作者:潘雪艷