042.集群網路-flannel及calico

来源:https://www.cnblogs.com/itzgr/archive/2020/03/24/12558767.html
-Advertisement-
Play Games

一 Flannel組件 1.1 flannel介紹 Kubernetes的網路模型假定了所有Pod都在一個可以直接連通的扁平網路空間中。若需要實現這個網路假設,需要實現不同節點上的Docker容器之間的互相訪問,然後運行Kubernetes。目前已經有多個開源組件支持容器網路模型。如Flannel、 ...


一 Flannel組件

1.1 flannel介紹

Kubernetes的網路模型假定了所有Pod都在一個可以直接連通的扁平網路空間中。若需要實現這個網路假設,需要實現不同節點上的Docker容器之間的互相訪問,然後運行Kubernetes。目前已經有多個開源組件支持容器網路模型。如Flannel、Open vSwitch、直接路由和Calico。 Flannel之所以可以搭建Kubernetes依賴的底層網路,是因為它能實現以下兩點。
  1. 它能協助Kubernetes,給每一個Node上的Docker容器都分配互相不衝突的IP地址。
  2. 它能在這些IP地址之間建立一個覆蓋網路(Overlay Network),通過這個覆蓋網路,將數據包原封不動地傳遞到目標容器內。
flannel架構圖: clipboard 如上圖所示,Flannel首先創建了一個名為flannel0的網橋,而且這個網橋的一端連接docker0網橋,另一端連接一個叫作flanneld的服務進程。flanneld進程上連etcd,利用etcd來管理可分配的IP地址段資源,同時監控etcd中每個Pod的實際地址,併在記憶體中建立了一個Pod節點路由表;flanneld進程下連docker0和物理網路,使用記憶體中的Pod節點路由表,將docker0發給它的數據包包裝起來,利用物理網路的連接將數據包投遞到目標flanneld上,從而完成Pod到Pod之間的直接地址通信。 Flannel之間的底層通信協議的可選技術包括UDP、VxLan、AWS VPC等多種方式。通過源flanneld封包、目標flanneld解包,最終docker0收到的就是原始的數據,對容器應用來說是透明的,感覺不到中間Flannel的存在。 Flannel每次分配的地址段都在同一個公共區域獲取,從而實現不同Node上的Pod分配的IP不產生衝突。而且在Flannel分配好地址段後,其餘操作由Docker完成的,Flannel通過修改Docker的啟動參數將分配給它的地址段傳遞進去: --bip=172.17.18.1/24 通過如上方式,Flannel就控制了每個Node上的docker0地址段的地址,從而保障了所有Pod的IP地址在同一個水平網路中且不產生衝突。Flannel完美地實現了對Kubernetes網路的支持,但是它引入了多個網路組件,在網路通信時需要轉到flannel0網路介面,再轉到用戶態的flanneld程式,到對端後還需要走這個過程的反過程,所以也會引入一些網路的時延損耗。另外,Flannel模型預設採用了UDP作為底層傳輸協議,UDP本身是非可靠協議,雖然兩端的TCP實現了可靠傳輸,但在大流量、高併發的應用場景下還建議多次測試。
提示:更多flannel實現和部署參考:《008.Docker Flannel+Etcd分散式網路部署》。

二 Calico組件

2.1 calco組件簡介

Calico是一個基於BGP的純三層的網路方案,與OpenStack、Kubernetes、AWS、GCE等雲平臺都能夠良好地集成。Calico在每個計算節點都利用Linux Kernel實現了一個高效的vRouter來負責數據轉發。每個vRouter都通過BGP1協議把在本節點上運行的容器的路由信息向整個Calico網路廣播,並自動設置到達其他節點的路由轉發規則。 Calico保證所有容器之間的數據流量都是通過IP路由的方式完成互聯互通的。Calico節點組網時可以直接利用數據中心的網路結構(L2或者L3),不需要額外的NAT、隧道或者Overlay Network,沒有額外的封包解包,能夠節約CPU運算,提高網路效率。 clipboard Calico在小規模集群中可以直接互聯,在大規模集群中可以通過額外的BGP route reflector來完成。Calico基於iptables還提供了豐富的網路策略,實現了Kubernetes的Network Policy策略,提供容器間網路可達性限制的功能。

2.2 Calico架構

clipboard Calico的主要組件: Felix:Calico Agent,運行在每個Node上,負責為容器設置網路資源(IP地址、路由規則、iptables規則等),保證跨主機容器網路互通。 etcd:Calico使用的後端存儲。 BGP Client:負責把Felix在各Node上設置的路由信息通過BGP協議廣播到Calico網路。 Route Reflector:通過一個或者多個BGP Route Reflector來完成大規模集群的分級路由分發。 CalicoCtl:Calico命令行管理工具。

2.3 Calico步驟過程

在Kubernetes中部署Calico的主要步驟如下:
  1. 修改Kubernetes服務的啟動參數,並重啟服務。
    1. 設置Master上kube-apiserver服務的啟動參數:--allow-privileged=true(因為calico-node需要以特權模式運行在各Node上)。
    2. 設置各Node上kubelet服務的啟動參數:--networkplugin=cni(使用CNI網路插件)。
  1. 創建Calico服務,主要包括calico-node和calico policy controller。需要創建的資源對象如下:
    1. 創建ConfigMap calico-config,包含Calico所需的配置參數。
    2. 創建Secret calico-etcd-secrets,用於使用TLS方式連接etcd。
    3. 在每個Node上都運行calico/node容器,部署為DaemonSet。
    4. 在每個Node上都安裝Calico CNI二進位文件和網路配置參數(由install-cni容器完成)。
    5. 部署一個名為calico/kube-policy-controller的Deployment,以對接Kubernetes集群中為Pod設置的Network Policy。

2.4 正式部署

[root@k8smaster01 ~]# curl \ https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/canal/canal.yaml \ -O [root@k8smaster01 ~]# POD_CIDR="<your-pod-cidr>" \ sed -i -e "s?10.10.0.0/16?$POD_CIDR?g" canal.yaml 如上yaml文件包括Calico所需全部配置,如下為重點部分分段解析:
  • ConfigMap解析
  1 kind: ConfigMap
  2 apiVersion: v1
  3 metadata:
  4   name: calico-config
  5   namespace: kube-system
  6 data:
  7   typha_service_name: "none"
  8   calico_backend: "bird"
  9   veth_mtu: "1440"
 10   cni_network_config: |-
 11     {
 12       "name": "k8s-pod-network",
 13       "cniVersion": "0.3.0",
 14       "plugins": [
 15         {
 16           "type": "calico",
 17           "log_level": "info",
 18           "datastore_type": "kubernetes",
 19           "nodename": "__KUBERNETES_NODE_NAME__",
 20           "mtu": __CNI_MTU__,
 21           "ipam": {
 22               "type": "calico-ipam"
 23           },
 24           "policy": {
 25               "type": "k8s"
 26           },
 27           "kubernetes": {
 28               "kubeconfig": "__KUBECONFIG_FILEPATH__"
 29           }
 30         },
 31         {
 32           "type": "portmap",
 33           "snat": true,
 34           "capabilities": {"portMappings": true}
 35         }
 36       ]
 37     }
對主要參數說明如下。 etcd_endpoints:Calico使用etcd來保存網路拓撲和狀態,該參數指定etcd服務的地址,可手動設置。 calico_backend:Calico的後端,預設為bird。 cni_network_config:符合CNI規範的網路配置。其中type=calico表示kubelet將從/opt/cni/bin目錄下搜索名為calico的可執行文件,並調用它來完成容器網路的設置。ipam中的type=calico-ipam表示kubelet將在/opt/cni/bin目錄下搜索名為calico-ipam的可執行文件,用於完成容器IP地址的分配。 提示:如果etcd服務配置了TLS安全認證,則還需指定相應的ca、cert、key等文件。
  • Secret解析
  1 apiVersion: v1
  2 kind: Secret
  3 type: Opaque
  4 metadata:
  5   name: calico-etcd-secrets
  6   namespace: kube-system
  7 data:
  8   # Populate the following with etcd TLS configuration if desired, but leave blank if
  9   # not using TLS for etcd.
 10   # The keys below should be uncommented and the values populated with the base64
 11   # encoded contents of each file that would be associated with the TLS data.
 12   # Example command for encoding a file contents: cat <file> | base64 -w 0
 13   # 如果配置了TLS ,則需要設置相應的證書和密鑰文件路徑
 14   # etcd-key: null
 15   # etcd-cert: null
 16   # etcd-ca: null
  • DaemonSet解析
  1 kind: DaemonSet
  2 apiVersion: extensions/v1beta1
  3 metadata:
  4   name: calico-node
  5   namespace: kube-system
  6   labels:
  7     k8s-app: calico-node
  8 spec:
  9   selector:
 10     matchLabels:
 11       k8s-app: calico-node
 12   updateStrategy:
 13     type: RollingUpdate
 14     rollingUpdate:
 15       maxUnavailable: 1
 16   template:
 17     metadata:
 18       labels:
 19         k8s-app: calico-node
 20       annotations:
 21         scheduler.alpha.kubernetes.io/critical-pod: ''
 22     spec:
 23       nodeSelector:
 24         beta.kubernetes.io/os: linux
 25       hostNetwork: true
 26       tolerations:
 27         - effect: NoSchedule
 28           operator: Exists
 29         - key: CriticalAddonsOnly
 30           operator: Exists
 31         - effect: NoExecute
 32           operator: Exists
 33       serviceAccountName: calico-node
 34       terminationGracePeriodSeconds: 0
 35       initContainers:
 36         - name: upgrade-ipam
 37           image: calico/cni:v3.6.0
 38           command: ["/opt/cni/bin/calico-ipam", "-upgrade"]
 39           env:
 40             - name: KUBERNETES_NODE_NAME
 41               valueFrom:
 42                 fieldRef:
 43                   fieldPath: spec.nodeName
 44             - name: CALICO_NETWORKING_BACKEND
 45               valueFrom:
 46                 configMapKeyRef:
 47                   name: calico-config
 48                   key: calico_backend
 49           volumeMounts:
 50             - mountPath: /var/lib/cni/networks
 51               name: host-local-net-dir
 52             - mountPath: /host/opt/cni/bin
 53               name: cni-bin-dir
 54         - name: install-cni
 55           image: calico/cni:v3.6.0
 56           command: ["/install-cni.sh"]
 57           env:
 58             - name: CNI_CONF_NAME
 59               value: "10-calico.conflist"
 60             - name: CNI_NETWORK_CONFIG
 61               valueFrom:
 62                 configMapKeyRef:
 63                   name: calico-config
 64                   key: cni_network_config
 65             - name: KUBERNETES_NODE_NAME
 66               valueFrom:
 67                 fieldRef:
 68                   fieldPath: spec.nodeName
 69             - name: CNI_MTU
 70               valueFrom:
 71                 configMapKeyRef:
 72                   name: calico-config
 73                   key: veth_mtu
 74             - name: SLEEP
 75               value: "false"
 76           volumeMounts:
 77             - mountPath: /host/opt/cni/bin
 78               name: cni-bin-dir
 79             - mountPath: /host/etc/cni/net.d
 80               name: cni-net-dir
 81       containers:
 82         - name: calico-node
 83           image: calico/node:v3.6.0
 84           env:
 85             - name: DATASTORE_TYPE
 86               value: "kubernetes"
 87             - name: WAIT_FOR_DATASTORE
 88               value: "true"
 89             - name: NODENAME
 90               valueFrom:
 91                 fieldRef:
 92                   fieldPath: spec.nodeName
 93             - name: CALICO_NETWORKING_BACKEND
 94               valueFrom:
 95                 configMapKeyRef:
 96                   name: calico-config
 97                   key: calico_backend
 98             - name: CLUSTER_TYPE
 99               value: "k8s,bgp"
100             - name: IP
101               value: "autodetect"
102             - name: IP_AUTODETECTION_METHOD
103               value: "can-reach=172.24.8.2"
104             - name: CALICO_IPV4POOL_IPIP
105               value: "Always"
106             - name: FELIX_IPINIPMTU
107               valueFrom:
108                 configMapKeyRef:
109                   name: calico-config
110                   key: veth_mtu
111             - name: CALICO_IPV4POOL_CIDR
112               value: "10.10.0.0/16"
113             - name: CALICO_DISABLE_FILE_LOGGING
114               value: "true"
115             - name: FELIX_DEFAULTENDPOINTTOHOSTACTION
116               value: "ACCEPT"
117             - name: FELIX_IPV6SUPPORT
118               value: "false"
119             - name: FELIX_LOGSEVERITYSCREEN
120               value: "info"
121             - name: FELIX_HEALTHENABLED
122               value: "true"
123           securityContext:
124             privileged: true
125           resources:
126             requests:
127               cpu: 250m
128           livenessProbe:
129             httpGet:
130               path: /liveness
131               port: 9099
132               host: localhost
133             periodSeconds: 10
134             initialDelaySeconds: 10
135             failureThreshold: 6
136           readinessProbe:
137             exec:
138               command:
139               - /bin/calico-node
140               - -bird-ready
141               - -felix-ready
142             periodSeconds: 10
143           volumeMounts:
144             - mountPath: /lib/modules
145               name: lib-modules
146               readOnly: true
147             - mountPath: /run/xtables.lock
148               name: xtables-lock
149               readOnly: false
150             - mountPath: /var/run/calico
151               name: var-run-calico
152               readOnly: false
153             - mountPath: /var/lib/calico
154               name: var-lib-calico
155               readOnly: false
156       volumes:
157         - name: lib-modules
158           hostPath:
159             path: /lib/modules
160         - name: var-run-calico
161           hostPath:
162             path: /var/run/calico
163         - name: var-lib-calico
164           hostPath:
165             path: /var/lib/calico
166         - name: xtables-lock
167           hostPath:
168             path: /run/xtables.lock
169             type: FileOrCreate
170         - name: cni-bin-dir
171           hostPath:
172             path: /opt/cni/bin
173         - name: cni-net-dir
174           hostPath:
175             path: /etc/cni/net.d
176         - name: host-local-net-dir
177           hostPath:
178             path: /var/lib/cni/networks
在該Pod中包括如下兩個容器:
  • install-cni:在Node上安裝CNI二進位文件到/opt/cni/bin目錄下,並安裝相應的網路配置文件到/etc/cni/net.d目錄下,設置為initContainers併在運行完成後退出。
  • calico-node:Calico服務程式,用於設置Pod的網路資源,保證Pod的網路與各Node互聯互通。它還需要以hostNetwork模式運行,直接使用宿主機網路。
calico-node服務的主要參數如下。
  • CALICO_IPV4POOL_CIDR:Calico IPAM的IP地址池,Pod的IP地址將從該池中進行分配。
  • CALICO_IPV4POOL_IPIP:是否啟用IPIP模式。啟用IPIP模式時,Calico將在Node上創建一個名為tunl0的虛擬隧道。
  • IP_AUTODETECTION_METHOD:獲取Node IP地址的方式,預設使用第1個網路介面的IP地址,對於安裝了多塊網卡的Node,可以使用正則表達式選擇正確的網卡,例如"interface=eth.*"表示選擇名稱以eth開頭的網卡的IP地址。
  • FELIX_IPV6SUPPORT:是否啟用IPv6。
  • FELIX_LOGSEVERITYSCREEN:日誌級別。
  • securityContext.privileged=true:以特權模式運行。
另外,如果啟用RBAC許可權控制,則可以設置ServiceAccount。 IP Pool可以使用兩種模式:BGP或IPIP。使用IPIP模式時,設置CALICO_IPV4POOL_IPIP="always",不使用IPIP模式時,設置CALICO_IPV4POOL_IPIP="off",此時將使用BGP模式。
  • calico-kube-controllers解析
calico-kube-controllers容器,用於對接Kubernetes集群中為Pod設置的Network Policy
  1 apiVersion: extensions/v1beta1
  2 kind: Deployment
  3 metadata:
  4   name: calico-kube-controllers
  5   namespace: kube-system
  6   labels:
  7     k8s-app: calico-kube-controllers
  8   annotations:
  9     scheduler.alpha.kubernetes.io/critical-pod: ''
 10 spec:
 11   replicas: 1
 12   strategy:
 13     type: Recreate
 14   template:
 15     metadata:
 16       name: calico-kube-controllers
 17       namespace: kube-system
 18       labels:
 19         k8s-app: calico-kube-controllers
 20     spec:
 21       nodeSelector:
 22         beta.kubernetes.io/os: linux
 23       tolerations:
 24         - key: CriticalAddonsOnly
 25           operator: Exists
 26         - key: node-role.kubernetes.io/master
 27           effect: NoSchedule
 28       serviceAccountName: calico-kube-controllers
 29       containers:
 30         - name: calico-kube-controllers
 31           image: calico/kube-controllers:v3.6.0
 32           env:
 33             - name: ENABLED_CONTROLLERS
 34               value: node
 35             - name: DATASTORE_TYPE
 36               value: kubernetes
 37           readinessProbe:
 38             exec:
 39               command:
 40               - /usr/bin/check-status
 41               - -r
如果啟用RBAC許可權控制,則可以設置ServiceAccount。用戶在Kubernetes集群中設置了Pod的Network Policy之後,calicokube-controllers就會自動通知各Node上的calico-node服務,在宿主機上設置相應的iptables規則,完成Pod間網路訪問策略的設置。 [root@k8smaster01 ~]# docker pull calico/cni:v3.9.0 [root@k8smaster01 ~]# docker pull calico/node:v3.9.0 [root@k8smaster01 ~]# docker pull calico/kube-controllers:v3.9.0 #建議提前pull鏡像 [root@k8smaster01 ~]# kubectl apply -f calico.yaml clipboard

2.5 查看驗證

[root@k8smaster01 ~]# kubectl get pods --all-namespaces -o wide #查看部署 clipboard [root@k8smaster01 ~]# ll /etc/cni/net.d/ calico-node在正常運行之後,會根據CNI規範,在/etc/cni/net.d/目錄下生成如下文件和目錄,併在/opt/cni/bin/目錄下安裝二進位文件calico和calico-ipam,供kubelet調用。
  • 10-calico.conf:符合CNI規範的網路配置,其中type=calico表示該插件的二進位文件名為calico。
  • calico-kubeconfig:Calico所需的kubeconfig文件。
  • calico-tls目錄:以TLS方式連接etcd的相關文件。
[root@k8smaster01 ~]# ifconfig tunl0 tunl0: flags=193<UP,RUNNING,NOARP> mtu 1440 inet 10.10.190.128 netmask 255.255.255.255 tunnel txqueuelen 1000 (IPIP Tunnel) RX packets 0 bytes 0 (0.0 B) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 0 bytes 0 (0.0 B) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 查看伺服器的網路介面設置,會生產名為tunl0的介面,網路地址為10.10.190.128/32,此IP從calico-node設置的IP地址池(CALICO_IPV4POOL_CIDR="10.10.0.0/16")中進行分配的。同時,docker0對於Kubernetes設置Pod的IP地址將不再起作用。 [root@k8smaster01 ~]# ip route #查看路由表 clipboard 如上可查看到不同節點的相應路由,從而通過Calico就完成了Node間容器網路的設置。在後續的Pod創建過程中,kubelet將通過CNI介面調用Calico進行Pod網路的設置,包括IP地址、路由規則、iptables規則等。 如果設置CALICO_IPV4POOL_IPIP="off",即不使用IPIP模式,則Calico將不會創建tunl0網路介面,路由規則直接使用物理機網卡作為路 由器進行轉發。

2.6 運行測試

[root@k8smaster01 ~]# kubectl run nginx --replicas=2 --labels="run=load-balancer-example" --image=nginx --port=80 [root@k8smaster01 ~]# kubectl expose deployment nginx --type=NodePort --name=example-service #暴露埠 [root@k8smaster01 ~]# kubectl get service #查看服務狀態 [root@k8smaster01 ~]# kubectl describe service example-service #查看信息
您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • gRPC由於需要用工具生成代碼實現,可開發性不是很高,在擴展這方面不是很友好 最近研究了下,進行了擴展,不需要額外的工具生成,直接使用預設Grpc.Tools生成的代理類即可 相關源碼在文章底部 客戶端目標: 能配置consul地址和服務名稱,在調用client時能正確請求到真實的服務地址 在調用方 ...
  • `ids4`授權服務中構建用戶身份信息通過身份容器載體`ClaimsPrincipal`載入(具體載入到哪裡?是怎麼攜帶到`Api資源`網關中的?下篇文章再來分享具體的原理和流程);再經過受保護的`Api資源`網關中通過`ClaimsPrincipal`身份容器載體獲得當前用戶的相關信息後就可以做一... ...
  • 一、基本概念 1、為什麼學習命令操作而不用界面操作? Linux 作為伺服器,使用圖形界面會占用更多的系統資源,且影響穩定性、安全性。而且一個伺服器連個顯示屏都沒有,圖形界面毫無作用,所以命令行操作是 Linux 的必備技能。 常用命令手冊: https://www.runoob.com/linux ...
  • 導讀 安裝tomcat前首先要安裝對應的jdk並配置Java環境。 安裝jdk,請參考:點我直達 安裝Tomcat 下載Tomcat包 官網地址:點我直達 Tomcat與jdk相容關係 註:Tomcat與jdk相容關係 將包放到linux 解壓Tomcat tar -zxvf apache-tomc ...
  • 1. 頁表很大,頁表的放置就成問題 當頁表中的號不連續的時候,就要進行查找,其中的20就是代表每次訪問一個地址,要額外查頁表20次,這樣效率又不高了 所以說頁表中也不能只存放只存在用到的頁,頁號連續的話根據偏移一次就能找到 2. 多級頁表 即頁目錄表(章)+頁表(節) 3. 快表 多級頁表提高了空間 ...
  • 簡介: 阿裡雲的ecs伺服器打包鏡像後是qcow2格式,如果要將鏡像導入到VMware Workstation Pro或者VMware ESXi,就需要將qcow2格式轉成vmdk格式才可以。 筆者在此以ESXi 6.7導入為例來演示整個過程。 主要分以下幾個步驟: 1、工具準備。下載並安裝鏡像格式 ...
  • 公司伺服器已經安裝了 Docker 環境,但沒有安裝 Docker Compose,使用起來十分不便。由於服務無法連接外網,下麵演示如何離線安裝 Docker Compose。 (1)首先訪問 docker compose 的 GitHub 版本發佈頁面: https://github.com/do ...
  • Linux下離線安裝Docker 一、基礎環境 1、操作系統:CentOS 7.3 2、Docker版本:18.06.1 官方下載地址(打不開可能很慢) 3、百度雲Docker 18.06.1地址:https://pan.baidu.com/s/1YdN9z72QutPkHBfLq06H1A 密碼: ...
一周排行
    -Advertisement-
    Play Games
  • 概述:在C#中,++i和i++都是自增運算符,其中++i先增加值再返回,而i++先返回值再增加。應用場景根據需求選擇,首碼適合先增後用,尾碼適合先用後增。詳細示例提供清晰的代碼演示這兩者的操作時機和實際應用。 在C#中,++i 和 i++ 都是自增運算符,但它們在操作上有細微的差異,主要體現在操作的 ...
  • 上次發佈了:Taurus.MVC 性能壓力測試(ap 壓測 和 linux 下wrk 壓測):.NET Core 版本,今天計劃準備壓測一下 .NET 版本,來測試並記錄一下 Taurus.MVC 框架在 .NET 版本的性能,以便後續持續優化改進。 為了方便對比,本文章的電腦環境和測試思路,儘量和... ...
  • .NET WebAPI作為一種構建RESTful服務的強大工具,為開發者提供了便捷的方式來定義、處理HTTP請求並返迴響應。在設計API介面時,正確地接收和解析客戶端發送的數據至關重要。.NET WebAPI提供了一系列特性,如[FromRoute]、[FromQuery]和[FromBody],用 ...
  • 原因:我之所以想做這個項目,是因為在之前查找關於C#/WPF相關資料時,我發現講解圖像濾鏡的資源非常稀缺。此外,我註意到許多現有的開源庫主要基於CPU進行圖像渲染。這種方式在處理大量圖像時,會導致CPU的渲染負擔過重。因此,我將在下文中介紹如何通過GPU渲染來有效實現圖像的各種濾鏡效果。 生成的效果 ...
  • 引言 上一章我們介紹了在xUnit單元測試中用xUnit.DependencyInject來使用依賴註入,上一章我們的Sample.Repository倉儲層有一個批量註入的介面沒有做單元測試,今天用這個示例來演示一下如何用Bogus創建模擬數據 ,和 EFCore 的種子數據生成 Bogus 的優 ...
  • 一、前言 在自己的項目中,涉及到實時心率曲線的繪製,項目上的曲線繪製,一般很難找到能直接用的第三方庫,而且有些還是定製化的功能,所以還是自己繪製比較方便。很多人一聽到自己畫就害怕,感覺很難,今天就分享一個完整的實時心率數據繪製心率曲線圖的例子;之前的博客也分享給DrawingVisual繪製曲線的方 ...
  • 如果你在自定義的 Main 方法中直接使用 App 類並啟動應用程式,但發現 App.xaml 中定義的資源沒有被正確載入,那麼問題可能在於如何正確配置 App.xaml 與你的 App 類的交互。 確保 App.xaml 文件中的 x:Class 屬性正確指向你的 App 類。這樣,當你創建 Ap ...
  • 一:背景 1. 講故事 上個月有個朋友在微信上找到我,說他們的軟體在客戶那邊隔幾天就要崩潰一次,一直都沒有找到原因,讓我幫忙看下怎麼回事,確實工控類的軟體環境複雜難搞,朋友手上有一個崩潰的dump,剛好丟給我來分析一下。 二:WinDbg分析 1. 程式為什麼會崩潰 windbg 有一個厲害之處在於 ...
  • 前言 .NET生態中有許多依賴註入容器。在大多數情況下,微軟提供的內置容器在易用性和性能方面都非常優秀。外加ASP.NET Core預設使用內置容器,使用很方便。 但是筆者在使用中一直有一個頭疼的問題:服務工廠無法提供請求的服務類型相關的信息。這在一般情況下並沒有影響,但是內置容器支持註冊開放泛型服 ...
  • 一、前言 在項目開發過程中,DataGrid是經常使用到的一個數據展示控制項,而通常表格的最後一列是作為操作列存在,比如會有編輯、刪除等功能按鈕。但WPF的原始DataGrid中,預設只支持固定左側列,這跟大家習慣性操作列放最後不符,今天就來介紹一種簡單的方式實現固定右側列。(這裡的實現方式參考的大佬 ...