Redis數據備份和重啟恢復

来源:https://www.cnblogs.com/tinyj/archive/2018/10/29/9874094.html
-Advertisement-
Play Games

一、對Redis持久化的探討與理解 目前Redis持久化的方式有兩種: RDB 和 AOF 首先,我們應該明確持久化的數據有什麼用,答案是用於重啟後的數據恢復。 Redis是一個記憶體資料庫,無論是RDB還是AOF,都只是其保證數據恢復的措施。 所以Redis在利用RDB和AOF進行恢復的時候,都會讀 ...


一、對Redis持久化的探討與理解

目前Redis持久化的方式有兩種: RDB 和 AOF

首先,我們應該明確持久化的數據有什麼用,答案是用於重啟後的數據恢復。
Redis是一個記憶體資料庫,無論是RDB還是AOF,都只是其保證數據恢復的措施。
所以Redis在利用RDB和AOF進行恢復的時候,都會讀取RDB或AOF文件,重新載入到記憶體中。

RDB就是Snapshot快照存儲,是預設的持久化方式。
可理解為半持久化模式,即按照一定的策略周期性的將數據保存到磁碟。
對應產生的數據文件為dump.rdb,通過配置文件中的save參數來定義快照的周期。
下麵是預設的快照設置:

save 900 1    #當有一條Keys數據被改變時,900秒刷新到Disk一次
save 300 10   #當有10條Keys數據被改變時,300秒刷新到Disk一次
save 60 10000 #當有10000條Keys數據被改變時,60秒刷新到Disk一次

Redis的RDB文件不會壞掉,因為其寫操作是在一個新進程中進行的。
當生成一個新的RDB文件時,Redis生成的子進程會先將數據寫到一個臨時文件中,然後通過原子性rename系統調用將臨時文件重命名為RDB文件。
這樣在任何時候出現故障,Redis的RDB文件都總是可用的。

同時,Redis的RDB文件也是Redis主從同步內部實現中的一環。
第一次Slave向Master同步的實現是:
Slave向Master發出同步請求,Master先dump出rdb文件,然後將rdb文件全量傳輸給slave,然後Master把緩存的命令轉發給Slave,初次同步完成。
第二次以及以後的同步實現是:
Master將變數的快照直接實時依次發送給各個Slave。
但不管什麼原因導致Slave和Master斷開重連都會重覆以上兩個步驟的過程。
Redis的主從複製是建立在記憶體快照的持久化基礎上的,只要有Slave就一定會有記憶體快照發生。

可以很明顯的看到,RDB有它的不足,就是一旦資料庫出現問題,那麼我們的RDB文件中保存的數據並不是全新的。
從上次RDB文件生成到Redis停機這段時間的數據全部丟掉了。

AOF(Append-Only File)比RDB方式有更好的持久化性。
由於在使用AOF持久化方式時,Redis會將每一個收到的寫命令都通過Write函數追加到文件中,類似MYSQL的binlog。
當Redis重啟是會通過重新執行文件中保存的寫命令來在記憶體中重建整個資料庫的內容。
對應的設置參數為:
$ vim /opt/redis/etc/redis_6379.conf

appendonly yes       #啟用AOF持久化方式
appendfilename appendonly.aof #AOF文件的名稱,預設為appendonly.aof
# appendfsync always #每次收到寫命令就立即強制寫入磁碟,是最有保證的完全的持久化,但速度也是最慢的,一般不推薦使用。
appendfsync everysec #每秒鐘強制寫入磁碟一次,在性能和持久化方面做了很好的折中,是受推薦的方式。
# appendfsync no     #完全依賴OS的寫入,一般為30秒左右一次,性能最好但是持久化最沒有保證,不被推薦。

AOF的完全持久化方式同時也帶來了另一個問題,持久化文件會變得越來越大。
比如我們調用INCR test命令100次,文件中就必須保存全部的100條命令,但其實99條都是多餘的。
因為要恢複數據庫的狀態其實文件中保存一條SET test 100就夠了。
為了壓縮AOF的持久化文件,Redis提供了bgrewriteaof命令。
收到此命令後Redis將使用與快照類似的方式將記憶體中的數據以命令的方式保存到臨時文件中,最後替換原來的文件,以此來實現控制AOF文件的增長。
由於是模擬快照的過程,因此在重寫AOF文件時並沒有讀取舊的AOF文件,而是將整個記憶體中的資料庫內容用命令的方式重寫了一個新的AOF文件。
對應的設置參數為:
$ vim /opt/redis/etc/redis_6379.conf

no-appendfsync-on-rewrite yes   #在日誌重寫時,不進行命令追加操作,而只是將其放在緩衝區里,避免與命令的追加造成DISK IO上的衝突。
auto-aof-rewrite-percentage 100 #當前AOF文件大小是上次日誌重寫得到AOF文件大小的二倍時,自動啟動新的日誌重寫過程。
auto-aof-rewrite-min-size 64mb  #當前AOF文件啟動新的日誌重寫過程的最小值,避免剛剛啟動Reids時由於文件尺寸較小導致頻繁的重寫。

到底選擇什麼呢?下麵是來自官方的建議:
通常,如果你要想提供很高的數據保障性,那麼建議你同時使用兩種持久化方式。
如果你可以接受災難帶來的幾分鐘的數據丟失,那麼你可以僅使用RDB。
很多用戶僅使用了AOF,但是我們建議,既然RDB可以時不時的給數據做個完整的快照,並且提供更快的重啟,所以最好還是也使用RDB。
因此,我們希望可以在未來(長遠計劃)統一AOF和RDB成一種持久化模式。

在數據恢復方面:
RDB的啟動時間會更短,原因有兩個:
一是RDB文件中每一條數據只有一條記錄,不會像AOF日誌那樣可能有一條數據的多次操作記錄。所以每條數據只需要寫一次就行了。
另一個原因是RDB文件的存儲格式和Redis數據在記憶體中的編碼格式是一致的,不需要再進行數據編碼工作,所以在CPU消耗上要遠小於AOF日誌的載入。

二、災難恢復模擬
既然持久化的數據的作用是用於重啟後的數據恢復,那麼我們就非常有必要進行一次這樣的災難恢復模擬了。
據稱如果數據要做持久化又想保證穩定性,則建議留空一半的物理記憶體。因為在進行快照的時候,fork出來進行dump操作的子進程會占用與父進程一樣的記憶體,真正的copy-on-write,對性能的影響和記憶體的耗用都是比較大的。
目前,通常的設計思路是利用Replication機制來彌補aof、snapshot性能上的不足,達到了數據可持久化。
即Master上Snapshot和AOF都不做,來保證Master的讀寫性能,而Slave上則同時開啟Snapshot和AOF來進行持久化,保證數據的安全性。

首先,修改Master上的如下配置:
$ sudo vim /opt/redis/etc/redis_6379.conf

#save 900 1 #禁用Snapshot
#save 300 10
#save 60 10000

appendonly no #禁用AOF

接著,修改Slave上的如下配置:
$ sudo vim /opt/redis/etc/redis_6379.conf

save 900 1 #啟用Snapshot
save 300 10
save 60 10000

appendonly yes #啟用AOF
appendfilename appendonly.aof #AOF文件的名稱
# appendfsync always
appendfsync everysec #每秒鐘強制寫入磁碟一次
# appendfsync no  

no-appendfsync-on-rewrite yes   #在日誌重寫時,不進行命令追加操作
auto-aof-rewrite-percentage 100 #自動啟動新的日誌重寫過程
auto-aof-rewrite-min-size 64mb  #啟動新的日誌重寫過程的最小值

分別啟動Master與Slave
$ /etc/init.d/redis start

啟動完成後在Master中確認未啟動Snapshot參數
redis 127.0.0.1:6379> CONFIG GET save
1) "save"
2) ""

然後通過以下腳本在Master中生成25萬條數據:
dongguo@redis:/opt/redis/data/6379$ cat redis-cli-generate.temp.sh

#!/bin/bash

REDISCLI="redis-cli -a slavepass -n 1 SET"
ID=1

while(($ID<50001))
do
  INSTANCE_NAME="i-2-$ID-VM"
  UUID=`cat /proc/sys/kernel/random/uuid`
  PRIVATE_IP_ADDRESS=10.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`\
  CREATED=`date "+%Y-%m-%d %H:%M:%S"`

  $REDISCLI vm_instance:$ID:instance_name "$INSTANCE_NAME"
  $REDISCLI vm_instance:$ID:uuid "$UUID"
  $REDISCLI vm_instance:$ID:private_ip_address "$PRIVATE_IP_ADDRESS"
  $REDISCLI vm_instance:$ID:created "$CREATED"

  $REDISCLI vm_instance:$INSTANCE_NAME:id "$ID"

  ID=$(($ID+1))
done

dongguo@redis:/opt/redis/data/6379$ ./redis-cli-generate.temp.sh

在數據的生成過程中,可以很清楚的看到Master上僅在第一次做Slave同步時創建了dump.rdb文件,之後就通過增量傳輸命令的方式給Slave了。
dump.rdb文件沒有再增大。
dongguo@redis:/opt/redis/data/6379$ ls -lh
total 4.0K
-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb

而Slave上則可以看到dump.rdb文件和AOF文件在不斷的增大,並且AOF文件的增長速度明顯大於dump.rdb文件。
dongguo@redis-slave:/opt/redis/data/6379$ ls -lh
total 24M
-rw-r--r-- 1 root root 15M Sep 27 12:06 appendonly.aof
-rw-r--r-- 1 root root 9.2M Sep 27 12:06 dump.rdb

等待數據插入完成以後,首先確認當前的數據量。
redis 127.0.0.1:6379> info

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:27623
run_id:e00757f7b2d6885fa9811540df9dfed39430b642
uptime_in_seconds:1541
uptime_in_days:0
lru_clock:650187
used_cpu_sys:69.28
used_cpu_user:7.67
used_cpu_sys_children:0.00
used_cpu_user_children:0.00
connected_clients:1
connected_slaves:1
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33055824
used_memory_human:31.52M
used_memory_rss:34717696
used_memory_peak:33055800
used_memory_peak_human:31.52M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:0
changes_since_last_save:250000
bgsave_in_progress:0
last_save_time:1348677645
bgrewriteaof_in_progress:0
total_connections_received:250007
total_commands_processed:750019
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:246
vm_enabled:0
role:master
slave0:10.6.1.144,6379,online
db1:keys=250000,expires=0

當前的數據量為25萬條key,占用記憶體31.52M。

然後我們直接Kill掉Master的Redis進程,模擬災難。
dongguo@redis:/opt/redis/data/6379$ sudo killall -9 redis-server

我們到Slave中查看狀態:
redis 127.0.0.1:6379> info

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
uptime_in_seconds:1627
uptime_in_days:0
lru_clock:654181
used_cpu_sys:29.69
used_cpu_user:1.21
used_cpu_sys_children:1.70
used_cpu_user_children:1.23
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047696
used_memory_human:31.52M
used_memory_rss:34775040
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:3308
bgsave_in_progress:0
last_save_time:1348718951
bgrewriteaof_in_progress:0
total_connections_received:4
total_commands_processed:250308
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:694
vm_enabled:0
role:slave
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
master_host:10.6.1.143
master_port:6379
master_link_status:down
master_last_io_seconds_ago:-1
master_sync_in_progress:0
master_link_down_since_seconds:25
slave_priority:100
db1:keys=250000,expires=0

可以看到master_link_status的狀態已經是down了,Master已經不可訪問了。
而此時,Slave依然運行良好,並且保留有AOF與RDB文件。

下麵我們將通過Slave上保存好的AOF與RDB文件來恢復Master上的數據。

首先,將Slave上的同步狀態取消,避免主庫在未完成數據恢復前就重啟,進而直接覆蓋掉從庫上的數據,導致所有的數據丟失。
redis 127.0.0.1:6379> SLAVEOF NO ONE
OK

確認一下已經沒有了master相關的配置信息:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
uptime_in_seconds:1961
uptime_in_days:0
lru_clock:654215
used_cpu_sys:29.98
used_cpu_user:1.22
used_cpu_sys_children:1.76
used_cpu_user_children:1.42
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047696
used_memory_human:31.52M
used_memory_rss:34779136
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348719252
bgrewriteaof_in_progress:0
total_connections_received:4
total_commands_processed:250311
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:1119
vm_enabled:0
role:master
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
db1:keys=250000,expires=0

在Slave上複製數據文件:
dongguo@redis-slave:/opt/redis/data/6379$ tar cvf /home/dongguo/data.tar *
appendonly.aof
dump.rdb

將data.tar上傳到Master上,嘗試恢複數據:
可以看到Master目錄下有一個初始化Slave的數據文件,很小,將其刪除。
dongguo@redis:/opt/redis/data/6379$ ls -l
total 4
-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb
dongguo@redis:/opt/redis/data/6379$ sudo rm -f dump.rdb

然後解壓縮數據文件:
dongguo@redis:/opt/redis/data/6379$ sudo tar xf /home/dongguo/data.tar
dongguo@redis:/opt/redis/data/6379$ ls -lh
total 29M
-rw-r--r-- 1 root root 18M Sep 27 01:22 appendonly.aof
-rw-r--r-- 1 root root 12M Sep 27 01:22 dump.rdb

啟動Master上的Redis;
dongguo@redis:/opt/redis/data/6379$ sudo /etc/init.d/redis start
Starting Redis server...

查看數據是否恢復:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:16959
run_id:6e5ba6c053583414e75353b283597ea404494926
uptime_in_seconds:22
uptime_in_days:0
lru_clock:650292
used_cpu_sys:0.18
used_cpu_user:0.20
used_cpu_sys_children:0.00
used_cpu_user_children:0.00
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047216
used_memory_human:31.52M
used_memory_rss:34623488
used_memory_peak:33047192
used_memory_peak_human:31.52M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:0
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348680180
bgrewriteaof_in_progress:0
total_connections_received:1
total_commands_processed:1
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:0
vm_enabled:0
role:master
db1:keys=250000,expires=0

可以看到25萬條數據已經完整恢復到了Master上。

此時,可以放心的恢復Slave的同步設置了。
redis 127.0.0.1:6379> SLAVEOF 10.6.1.143 6379
OK

查看同步狀態:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
uptime_in_seconds:2652
uptime_in_days:0
lru_clock:654284
used_cpu_sys:30.01
used_cpu_user:2.12
used_cpu_sys_children:1.76
used_cpu_user_children:1.42
connected_clients:2
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33056288
used_memory_human:31.52M
used_memory_rss:34766848
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348719252
bgrewriteaof_in_progress:1
total_connections_received:6
total_commands_processed:250313
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:12217
vm_enabled:0
role:slave
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
master_host:10.6.1.143
master_port:6379
master_link_status:up
master_last_io_seconds_ago:0
master_sync_in_progress:0
slave_priority:100
db1:keys=250000,expires=0

master_link_status顯示為up,同步狀態正常。

在此次恢復的過程中,我們同時複製了AOF與RDB文件,那麼到底是哪一個文件完成了數據的恢復呢?
實際上,當Redis伺服器掛掉時,重啟時將按照以下優先順序恢複數據到記憶體:
1. 如果只配置AOF,重啟時載入AOF文件恢複數據;
2. 如果同時 配置了RDB和AOF,啟動是只載入AOF文件恢複數據;
3. 如果只配置RDB,啟動是將載入dump文件恢複數據。

也就是說,AOF的優先順序要高於RDB,這也很好理解,因為AOF本身對數據的完整性保障要高於RDB。

在此次的案例中,我們通過在Slave上啟用了AOF與RDB來保障了數據,並恢復了Master。

但在我們目前的線上環境中,由於數據都設置有過期時間,採用AOF的方式會不太實用,過於頻繁的寫操作會使AOF文件增長到異常的龐大,大大超過了我們實際的數據量,這也會導致在進行數據恢復時耗用大量的時間。
因此,可以在Slave上僅開啟Snapshot來進行本地化,同時可以考慮將save中的頻率調高一些或者調用一個計劃任務來進行定期bgsave的快照存儲,來儘可能的保障本地化數據的完整性。
在這樣的架構下,如果僅僅是Master掛掉,Slave完整,數據恢復可達到100%。
如果Master與Slave同時掛掉的話,數據的恢復也可以達到一個可接受的程度。

 

轉自:http://blog.csdn.net/gzh0222/article/details/8482525


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 我最近在學習python3,基礎不是很好,所以準備在Leetcode上刷題,這個作為筆記記錄我的,如果大家看到有錯誤,拜托大家幫我指出,謝謝啦~ ...
  • RxJava2 Flowable以及背壓 前述 java maven rxjava 背壓 背壓是指在非同步場景中,被觀察者發送事件速度遠快於觀察者的處理速度的情況下,一種告訴上游的被觀察者降低發送速度的策略。 https://www.jianshu.com/p/0cd258eecf60 的官方介紹: ...
  • 題意 "題目鏈接" 給出$n$個數,問最少選幾個數,使他們的$gcd = 1$ Sol 好神仙啊qwq。 首先,如果答案存在,那麼最多為$7$(因為前$7$個質數乘起來$ = 3e5$) 考慮dp,設$f[i][j]$表示選了$i$個數,他們$gcd = j$的方案數! 沒錯是方案數! 那麼我們只要 ...
  • 題意 "題目鏈接" Sol 考場上做完前四題的時候大概還剩半個小時吧,那時候已經困的不行了。 看了看E發現好像很可做?? 又仔細看了幾眼發現這不是sb題麽。。。 先考慮兩個人,假設貢獻分別為$(x, y) (a, b)$ 有兩種組合方式,一種是$x + b$,另一種是$y + a$ 若$x + b ...
  • 1. 有如下變數(tu 是個元祖),請實現要求的功能 tu = {"alex",[11,22,{"k1":'v1',"k2":["age","name"],"k3":(11,22,33)},44]} 2. 字典 dic,dic={'k1':"v1",'k2':"v2",'k3':[11,22,33] ...
  • JDBC 筆記 作者:晨鐘暮鼓c個人微信公眾號:程式猿的月光寶盒 Day1 JDBC概述+JDBC完成CRUD+DAO設計 1.JDBC概述 1.1 什麼是持久化( persistence ): 持久化(persistence):把數據保存到可掉電式存儲設備中以供之後使用。 ​ 保存數據: ​ 記憶體 ...
  • PRC原理 RPC 遠程過程調用(Remote Procedure Call) 一般用來實現部署在不同機器上的系統之間的方法調用,使得程式能夠像訪問本地系統資源一樣,通過網路傳輸去訪問遠程系統資源,RPC框架實現的原理都是類似的,如下圖: Client Code:客戶端調用方代碼實現,負責發起RPC ...
  • 字元串的創建 字元串創建符號 ' ' " " ''' ''' """ """ 轉義符\ >>> string_long = """This is another long string ... value that will span multiple ... lines in the output ...
一周排行
    -Advertisement-
    Play Games
  • 前言 本文介紹一款使用 C# 與 WPF 開發的音頻播放器,其界面簡潔大方,操作體驗流暢。該播放器支持多種音頻格式(如 MP4、WMA、OGG、FLAC 等),並具備標記、實時歌詞顯示等功能。 另外,還支持換膚及多語言(中英文)切換。核心音頻處理採用 FFmpeg 組件,獲得了廣泛認可,目前 Git ...
  • OAuth2.0授權驗證-gitee授權碼模式 本文主要介紹如何筆者自己是如何使用gitee提供的OAuth2.0協議完成授權驗證並登錄到自己的系統,完整模式如圖 1、創建應用 打開gitee個人中心->第三方應用->創建應用 創建應用後在我的應用界面,查看已創建應用的Client ID和Clien ...
  • 解決了這個問題:《winForm下,fastReport.net 從.net framework 升級到.net5遇到的錯誤“Operation is not supported on this platform.”》 本文內容轉載自:https://www.fcnsoft.com/Home/Sho ...
  • 國內文章 WPF 從裸 Win 32 的 WM_Pointer 消息獲取觸摸點繪製筆跡 https://www.cnblogs.com/lindexi/p/18390983 本文將告訴大家如何在 WPF 裡面,接收裸 Win 32 的 WM_Pointer 消息,從消息裡面獲取觸摸點信息,使用觸摸點 ...
  • 前言 給大家推薦一個專為新零售快消行業打造了一套高效的進銷存管理系統。 系統不僅具備強大的庫存管理功能,還集成了高性能的輕量級 POS 解決方案,確保頁面載入速度極快,提供良好的用戶體驗。 項目介紹 Dorisoy.POS 是一款基於 .NET 7 和 Angular 4 開發的新零售快消進銷存管理 ...
  • ABP CLI常用的代碼分享 一、確保環境配置正確 安裝.NET CLI: ABP CLI是基於.NET Core或.NET 5/6/7等更高版本構建的,因此首先需要在你的開發環境中安裝.NET CLI。這可以通過訪問Microsoft官網下載並安裝相應版本的.NET SDK來實現。 安裝ABP ...
  • 問題 問題是這樣的:第三方的webapi,需要先調用登陸介面獲取Cookie,訪問其它介面時攜帶Cookie信息。 但使用HttpClient類調用登陸介面,返回的Headers中沒有找到Cookie信息。 分析 首先,使用Postman測試該登陸介面,正常返回Cookie信息,說明是HttpCli ...
  • 國內文章 關於.NET在中國為什麼工資低的分析 https://www.cnblogs.com/thinkingmore/p/18406244 .NET在中國開發者的薪資偏低,主要因市場需求、技術棧選擇和企業文化等因素所致。歷史上,.NET曾因微軟的閉源策略發展受限,儘管後來推出了跨平臺的.NET ...
  • 在WPF開發應用中,動畫不僅可以引起用戶的註意與興趣,而且還使軟體更加便於使用。前面幾篇文章講解了畫筆(Brush),形狀(Shape),幾何圖形(Geometry),變換(Transform)等相關內容,今天繼續講解動畫相關內容和知識點,僅供學習分享使用,如有不足之處,還請指正。 ...
  • 什麼是委托? 委托可以說是把一個方法代入另一個方法執行,相當於指向函數的指針;事件就相當於保存委托的數組; 1.實例化委托的方式: 方式1:通過new創建實例: public delegate void ShowDelegate(); 或者 public delegate string ShowDe ...