hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安裝

来源:https://www.cnblogs.com/hgc-bky/archive/2020/04/04/12635175.html
-Advertisement-
Play Games

創建3台虛擬機 主機為桌面版 其他為迷你版本 ******************************常用命令、進程名稱****************************啟動集群命令: start-all.sh啟動zookeeper: zkServer.sh start 啟動journal ...


創建3台虛擬機 主機為桌面版 其他為迷你版本

******************************常用命令、進程名稱****************************
啟動集群命令: start-all.sh
啟動zookeeper: zkServer.sh start
啟動journalnode: hadoop-daemon.sh start journalnode
啟動namenode: hadoop-daemon.sh --script hdfs start namenode
啟動zkfc: hadoop-daemon.sh --script hdfs start zkfc
啟動datanode: hadoop-daemon.sh --script hdfs start datanode

手動failover: hdfs haadmin -failover 主機名1 主機名2
查看namenode狀態:hdfs haadmin -getServiceState nn1
離開hadoop安全模式:hadoop dfsadmin -safemode leave
獲取當前hadoop運行狀態: hadoop dfsadmin -report
啟動 Hadoophistoryserver mr-jobhistory-daemon.sh start historyserver
防火牆關閉: service iptables stop & chkconfig iptables off
啟動NTP服務: service ntpd start & chkconfig ntpd on
ldd命令查看依賴庫

****************************************************************************

========================配置網路=====================
1. 查看網路介面狀態 ifconfig

2. 編輯eth0網卡(善用補全鍵 Table)
vi /etc/sysconfig/network-scripts/ifcfg-eth0

註意查看自己虛擬機的網路編輯器中的VMnet8給予的子網IP
對照子網IP進行設置

3.shift+G 到最後一行 O 另取一行開始編輯
寫入 :
IPADDR=192.168.80.141
GATEWAY=192.168.80.2
NETMASK=255.255.255.0
DNS1=192.168.80.2

修改:
BOOTPROTO=static
ONBOOT=yes

3.重啟網卡
service network restart
------------------------------------eg------------------------------------------------
[root@test1 ~]# service network restart
正在關閉介面 eth0: 設備狀態:3 (斷開連接)
[確定]
關閉環回介面: [確定]
彈出環回介面: [確定]
彈出界面 eth0: 活躍連接狀態:已激活
活躍連接路徑:/org/freedesktop/NetworkManager/ActiveConnection/1
[確定]
---------------------------------------------------------------------------------------

4. 檢測網路時候接通
ping 8.8.8.8

-------------------------------------eg----------------------------------------------
[root@test1 ~]# ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=12 ttl=128 time=56.4 ms
64 bytes from 8.8.8.8: icmp_seq=13 ttl=128 time=24.4 ms
64 bytes from 8.8.8.8: icmp_seq=14 ttl=128 time=22.9 ms
----------------------------------------------------------------------------------------


5.修改 hosts文件(此文件是機器識別的身份證號碼)
vi /etc/hosts
在文件內容後添加
IP + 主機名(根據自己的實際情況改)
192.168.245.221 test1
192.168.245.222 test2
192.168.245.223 test3
192.168.245.224 test4

可以通過 ping 命令測試


===========================ssh免密配置================================
1.在每一臺進行安裝ssh客戶端(需要良好的網路環境否則會顯示鏡像錯誤)
yum install openssh-clients
·················································································錯誤解決方法················································································
檢查是否能上網:ping www.baidu.com

如果顯示沒有連接的話,就說明沒網,也就無法使用yum 命令安裝。

ping通了的話,還是用不了yum命令,大部分原因是yum鏡像有問題,下載一個更新。

在安裝完CentOS後一般需要修改yum源,這樣在安裝更新rpm包時速度比較快。國內比較快的有163源、sohu源。以下是以163源為例。

cd /etc/yum.repos.d
mv CentOS-Base.repo CentOS-Base.repo.backup
wget http://mirrors.163.com/.help/CentOS6-Base-163.repo
mv CentOS6-Base-163.repo CentOS-Base.repo
yum clean all
最後在使用yum 就可以了。
·······················································································································································································
2. 生成公鑰私鑰對(最好在每一臺,嫌麻煩可以只在主機配置)
ssh-keygen

3.複製密匙(最好每一臺相互設置,嫌麻煩可只在主機設置)
ssh-copy-id 機器名稱


==============================時間同步====================================
採用的是同步上海時區的時間

下載時間同步模塊
yum -y install ntpdate

連接遠程伺服器
ntpdate -u time1.aliyun.com

修改文件
ntpdate -u ntp.api.bz

date 查看系統時間

hwclock --show 查看硬體時間

hwclock -w 永久保存

date 查看 成功

========================================================================


===========================安裝Jdk、Hadoop、zookeeper======================
【安裝JDK以及其他HADOOP以及組件需要註意環境配置裡面文件的位置名稱等等】
1.採用winscp或者rz、xshell等方式上傳安裝包到/home目錄

2.創建文件夾存放解壓文件
mkdir /home/java mkdir /home/hadoop mkdir /home/zk

3. 解壓安裝包(註意為tar.gz結尾)
tar -zxvf jdk-7u79-linux-x64.tar.gz -C /home/java
tar -zxvf hadoop-2.6.4.tar.gz -C /home/hadoop
tar -xzvf zookeeper-3.4.6.tar.gz -C /home

4.修改文件名(此步驟必須進入解壓文件存放的文件夾下即 /home/java 、/home/zookeeper-3.4.6和 /home/hadoop 目錄 )
mv jdk1.7.0_79 jdk mv hadoop-2.6.4 hadoop mv zookeeper-3.4.6 zk

5.配置環境變數
vi /etc/profile
寫入jdk環境變數:
export JAVA_HOME=/home/java/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

hadoop環境變數:
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=.:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH

export HADOOP_LOG_DIR=/home/hadoop/hadoop/logs
export YARN_LOG_DIR=$HADOOP_LOG_DIR


zookeeper環境變數
export ZOOKEEPER_HOME=/home/zk/zk
export PATH=$PATH:$ZOOKEEPER_HOME/bin

6.運行 source /etc/profile (此步驟不會有提示 有提示就錯了!!!!)

--------修改zookeeper配置文件--------------------------
創建文件夾存放所需其他緩存文件(!!在每一臺上面!!)
mkdir /tmp/zookeeper -p
mkdir /tmp/logs/zookeeper -p
cd /tmp/zookeeper vi myid (新文件 這個文件寫入機器的ID 1~5依次類推)
第一臺:1
·······
·······
第五台:5

cd $ZOOKEEPER_HOME/conf (進入配置文件目錄)
cp zoo_sample.cfg zoo.cfg (拷貝配置文件模板)
寫入:
server.1=test1:2888:3888
server.2=test2:2888:3888
server.3=test3:2888:3888
server.4=test4:2888:3888
server.5=test5:2888:3888

cd $ZOOKEEPER_HOME/bin/zkEnv.sh
寫入:
ZOO_LOG_DIR=/tmp/logs/zookeeper

設置zookeeper自啟(避免多台機器要開啟 )
直接修改/etc/rc.d/rc.local文件
vi /etc/rc.d/rc.local
寫入:
export JAVA_HOME=/home/java/jdk #jdk安裝目錄
/home/zk/zk/bin/zkServer.sh start #zookeeper啟動命令
---------------------------------------------------------

---------------修改hadoop配置文件-------------------------
(針對Hadoop-Ha配置 5台機器 需要配置3台請見老文件)
【若主機名不同記得修改,否則會導致錯誤】
【記得文件中的起始標符號以及結束的標語】
創建需要的文件夾
mkdir -p /var/log/hadoop/tmp
mkdir -p /data/hadoop/yarn/local
mkdir -p /data/tmp/log
mkdir -p /home/hadoop/hadoop/tmp/hdfs/name
mkdir -p /home/hadoop/hadoop/tmp/hdfs/data

cd $HADOOP_HOME/etc/hadoop (進入hadoop配置文件所在目錄)

1.vi core-site.xml

<configuration>
        <property>
                  <name>fs.defaultFS</name>
                  <value>hdfs://mycluster</value>
        </property>
        <property>
                   <name>hadoop.tmp.dir</name>
                  <value>/var/log/hadoop/tmp</value>
        </property>
         <property>
                <name>ha.zookeeper.session-timeout.ms</name>
                <value>30000</value>
         </property>
</configuration>

2.vi hadoop-env.sh
export JAVA_HOME=/home/java/jdk

3. vi yarn-env.sh
export JAVA_HOME=/home/java/jdk

4. vi mapred-site.xml
cp mapred-site.xml.template mapred-site.xml (複製模板編輯)

<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>test1:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>test1:19888</value>
        </property>
</configuration>

5. vi yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>test1</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>${yarn.resourcemanager.hostname}:8032</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>${yarn.resourcemanager.hostname}:8030</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>${yarn.resourcemanager.hostname}:8088</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.https.address</name>
    <value>${yarn.resourcemanager.hostname}:8090</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>${yarn.resourcemanager.hostname}:8031</value>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>${yarn.resourcemanager.hostname}:8033</value>
</property>
<property>
    <name>yarn.resourcemanager.local-dirs</name>
    <value>/data/hadoop/yarn/local</value>
</property>
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>
<property>
    <name>yarn.resourcemanager.remote-app-log-dir</name>
    <value>/data/tmp/logs</value>
</property>
<property>
    <name>yarn.log.server.url</name>
    <value>http://test1:19888/jobhistory/logs/</value>
    <description>URL for job history server</description>
</property>
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>2048</value>
</property>
<property>
    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>512</value>
</property>
<property>
    <name>yarn.scheduler.maximum-allocation-mb</name>
    <value>4096</value>
</property>
<property>
    <name>mapreduce.map.memory.mb</name>
    <value>2048</value>
</property>
<property>
    <name>mapreduce.reduce.memory.mb</name>
    <value>2048</value>
</property>
<property>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>1</value>
</property>
</configuration>

6. vi slaves(寫入從機名稱)
test3
test4
test5

7. vi hdfs-site.xml

<configuration>
<property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///home/hadoop/hadoop/tmp/hdfs/name</value>
</property>
<property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///home/hadoop/hadoop/tmp/hdfs/data</value>
</property>
<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>test1:50090</value>
</property>
<property>
        <name>dfs.replication</name>
        <value>2</value>  #文件副本數目
</property>
<property>
        <name>dfs.qjournal.start-segment.timeout.ms</name>
        <value>60000</value>
</property>
<property>
        <name>dfs.nameservices</name>
        <value>mycluster</value>
</property>
<property>
        <name>dfs.ha.namenodes.mycluster</name>
        <value>test1,test2</value>
</property>
<property>
        <name>dfs.namenode.rpc-address.mycluster.test1</name>
        <value>test1:8020</value>
</property>
<property>
        <name>dfs.namenode.rpc-address.mycluster.test2</name>
        <value>test2:8020</value>
</property>
<property>
        <name>dfs.namenode.http-address.mycluster.test1</name>
        <value>test1:50070</value>
</property>
<property>
        <name>dfs.namenode.http-address.mycluster.test2</name>
        <value>test2:50070</value>
</property>
<property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://test1:8485;test2:8485;test3:8485;test4:8485;test5:8485/mycluster</value>
</property>
<property>
        <name>dfs.client.failover.proxy.provider.mycluster</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
        <name>dfs.ha.fencing.methods</name>
        <value>sshfence</value>
</property>
<property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/root/.ssh/id_rsa</value>
</property>
<property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/tmp/jn</value>
</property>
<property>
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
</property>
<property>
        <name>ha.zookeeper.quorum</name>
        <value>test1:2181,test2:2181,test3:2181,test4:2181,test5:2181</value>
</property>
</configuration>

-------------------------------------------------------------------------------------------------------------------------

=========================拷貝安裝文件夾、配置文件============================
命令:scp -r +原目標文件位置 機器名:存放目標文件位置
eg:
scp -r /home test2:/
scp -r /etc/profile test2:/etc/profile (每一臺拷貝過去後記得刷新 source /etc/profile )
scp -r /etc/hosts test2:/etc/hosts
scp -r /etc/rc.d/rc.local test2:/etc/rc.d/rc.local

====================================================================

=======================================================
創建文件夾在每一臺上面 mkdir /data/hadoop/hdfs/jn -p

在五台機上運行 hadoop-daemon.sh start journalnode
刪除匹配集群ID文件(遇到datanode啟動不了可以刪除這兩個文件之後再格式化)
rm -rf $HADOOP_HOME/tmp/hdfs/name/current
rm -rf $HADOOP_HOME/tmp/hdfs/data/current


關閉防火牆:每一臺 service iptables stop & chkconfig iptables off (連續輸入兩次)

格式化namenode
test1上面: hdfs namenode -format
test1上面: hadoop-daemon.sh start namenode

test2: hdfs namenode -bootstrapStandby

初始化journalnode
test1: hadoop-daemon.sh stop namenode
test1: hdfs namenode -initializeSharedEdits

=======================以上步驟為hadoop集群格式化===========================

 

在每一臺機器啟動zookeeper
zkServer.sh start


初始化ZooKeeper集群
hdfs zkfc -formatZK

主機進入zkClient 【查看是否有 hadoop-ha 沒有就沒初始化成功 要檢查每一臺要創建的文件夾、配置文件是否弄好】
[root@test1 ~]#
eg:
[zk: localhost:2181(CONNECTED) 0] 即為進入zk客戶端 輸入 ls /

查看是否有 hadoop-ha 如若沒有即為每成功!!!!!

啟動hadoop-ha集群順序
zookeeper(這裡我們設置了開機自啟,需要重啟後生效: reboot)----journalnode-----namenode------zkfc------datanode

每一臺重啟後步驟完成 start-all.sh 即可啟動集群
輸入 hadoop dfsadmin -report 可獲取集群狀況 否則自動切換主機沒成功

======================================================================


================================hive配置===============================
hive安裝配置需要開啟集群且集群可以正常使用
mysql安裝
1. 查看電腦中已安裝的mysql版本:
rpm -qa | grep mysql

2. 選擇卸載,或者保留當前前版本
卸載: rpm -e xxxxxxxxxxxxxx(mysql版本) --nodeps (--nodeps代表強制卸載)
例: rpm -e mysql-libs-5.1.73-8.el6_8.x86_64 --nodeps
或者: rpm -e --nodeps mysql

3. 解壓傳過來的mysql.tar包
cd /home
tar -zxvf mysql-5.6.43-linux-glibc2.12-x86_64.tar.gz -C /home

4. 安裝mysql服務
yum install mysql-server

5. 安裝開發庫以及包含文件
yum install mysql-devel

6.開啟mysqld服務
service mysqld start

7.登錄mysq進行設置
mysql -u root -p (初始密碼為空)
設置密碼:
set password for 'root'@'localhost'=password('123456');
set password for 'root'@'%'=password('123456');
set password for 'root'@'test1'=password('123456');

開放遠程連接:
grant all privileges on *.* to root@"%" identified by "root" with grant option;

讓設置立即生效:
flush privileges

創建資料庫便於hive使用
create database hivedb (名字自己修改)

新建文件夾,mkdir /home/hive

上傳Hive安裝文件壓縮包

解壓hive安裝文件壓縮文件

tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /home/

重命名hive解壓文件
mv apache-hive-2.1.1 hive

配置環境變數:
vi /etc/profile

在文件末尾增加一段(hive包含bin文件的目錄)
export HIVE_HOME=/home/hive/
export PATH=${HIVE_HOME}/bin:$PATH

讓環境變數生效
source /etc/profile

進入Hive的配置文件目錄
cd /home/hive/hive/conf
修改hive-env.sh
cp hive-env.sh.tamplate hive-env.sh
將以下內容寫到hive-env.sh中
export JAVA_HOME=/home/java/jdk
export HADOOP_HOME=/home/hadoop/hadoop
export HIVE_HOME=/home/hive/

新建hive-site.xml文件
vi hive-site.xml
寫入

<configuration>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://192.168.80.131:3306/hahive?createDatabaseIfNotExist=true</value>#(本機ip以及資料庫名稱)
        </property>

        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>#(驅動)
        </property>

        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>#(資料庫賬戶)
        </property>

        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123456</value>#(密碼)
        </property>

        <property>
                <name>hive.metastore.schema.verification</name>
                <value>false</value>
        </property>
</configuration>

將mysql驅動上傳到虛擬機
拷貝驅動到 /home/hive/lib
cp mysqlxxx--xx------ /home/hive/lib

初始化Hive
schematool -initSchema -dbType mysql (若報錯使用 schematool -dbType mysql -initSchema )

(開啟mysqld服務)運行hive測試(登錄mysql命令mysql -uroot -p123456)

====================================================================

============================HBASE安裝部署=============================
HBASE需要在完整Hadoop-Ha下進行除Hive外 【時間同步必須進行檢驗】
1.在官網下載HBASE安裝包,並上傳到虛擬機 、home

2.解壓安裝包

tar -zxvf hbase-xxxxxxxxxx -C /home
mv /home/hbasexxxxxxx /home/hbase

3.編輯環境變數
vi /etc/profile
寫入:
export HBASE_HOME=/home/hbase
export PATH=$PATH:$HBASE_HOME/bin

4.編輯HBASE配置文件 進入HBASE安裝目錄 cd /home/hbase/conf

vi hbase-env.sh
寫入:
export JAVA_HOME=/home/java/jdk/
export HBASE_CLASSPATH=/home/hadoop/hadoop/etc/hadoop
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=false

vi hbase-site.xml (註意主機名)

<property>
                <name>hbase.rootdir</name>
                <value>hdfs://mycluster/hbase</value>
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>test1,test2,test3,test4,test5</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>

vi regionservers (加入從機)

test3
test4
test5

5.拷貝到其他機器(每一臺)
scp -r /home/hbase test2:/home/
scp -r /etc/profile test2:/etc/profile

HBASE常用命令:
啟動: hbase-daemon.sh start master (第一臺)
其他啟動: hbase-daemon.sh start regionserver
進入shell: hbase shell

---------------------------------------------ERROR---------------------------------------------------------
假如啟動 hbase shell報錯:
[ERROR] Terminal initialization failed; falling back to unsupported
...............................
Unhandled Java exception: java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected
java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected

是 /home/hadoop/hadoop/share/hadoop/yarn/lib/jline-0.9.94.jar jar包版本太低
解決方案:

刪除原本的jar包 rm -rf /home/hadoop/hadoop/share/hadoop/yarn/lib/jline-0.9.94.jar

拷貝新jar包 cp /home/hive/lib/jline-2.12.jar /home/hadoop/hadoop/share/hadoop/yarn/lib/

-------------------------------------------------------------------------------------------------------------
========================HBASE shell常用命令==============================
1. 版本獲取: version
hbase(main):005:0> version
2.0.6, rd65cccb5fda039217954a558c65bda423e0d6df3, Wed Aug 14 15:44:48 UTC 2019
Took 0.0003 seconds
版本號 校驗碼 發佈時間 運行命令的時間

2. 狀態獲取: status
hbase(main):006:0> status
1 active master, 0 backup masters, 4 servers, 0 dead, 0.7500 average load
Took 0.0094 seconds

3. 幫助: help

您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 在閱讀unpv1時運行源代碼的環境配置,這裡簡單記錄一下 源代碼里的README 寫得挺詳細的,但是在Linux 系統的下還是沒辦法直接編譯通過的, 這裡我使用的是ubuntu 19.10(在騰訊雲ubuntu server 18.04.1也測試通過) 以下是簡單的步驟: 1.下載源碼並解壓 2.解 ...
  • 安裝流程 這裡使用 brew 來安裝軟體。 安裝 查看安裝信息(經常用到, 比如查看安裝目錄等) 安裝後,主要看brew把nginx安裝到哪裡去了,預設是安裝到 常用命令記錄 查看nginx版本 啟動nginx服務 訪問: 後,看到如下內容就是啟動成功了。 如果沒有啟動成功,查看一下進程, : 查看 ...
  • 本次實驗環境:cn_windows_server_2019_x64_dvd_4de40f33cn_windows_7_enterprise_x64_dvd_x15-70741第一步:用戶創建第二步:添加主機第三步:資源分配1、用戶創建點擊工具選擇Active Directory用戶和電腦右鍵添加一... ...
  • 本次實驗環境:cn_windows_server_2019_x64_dvd_4de40f33第一步:安裝DNS服務搭建,提供域環境的功能變數名稱解析;第二部:安裝Active Directory服務搭建,域服務。1、安裝DNS服務安裝DNS服務,伺服器必須設置為固定IP地址。伺服器管理模板點擊管理-添加角色... ...
  • CentOS7主要有rpm和yum這兩種包軟體的管理。兩者有功能上的區別,其中主要區別是:yum使用簡單但需要聯網,yum會去網上包源去獲取所需要的軟體包。而rpm的需要做的事情就更細一些,比如我們需要記錄軟體的安裝位置、版本、信息等,類似macOS的homebrew。 rpm的工作原理是以一種數據 ...
  • 更多電腦使用技巧可以訪問 "https://xiaoheidiannao.com" 查看哦 今天打開微信電腦版的時候就自動更新到了2.9.0測試版(可能早已經有人更新到此版本了),更新內容如下: 1.Windows7及以上系統新增小程式面板,可查看最近使用和我的小程式。 2.聊天中可以引用更多類型的 ...
  • 先安裝zsh 安裝oh my zsh 手動安裝 自動安裝 ` 不管使用手動 自動安裝,完成後都需要重啟。oh my zsh才能生效。 修改主題 挑選你喜歡的主題:https://github.com/robbyrussell/oh my zsh/wiki/Themes ...
  • Redis是一個開源的、基於記憶體的數據結構存儲器,可以用作資料庫、緩存和消息中間件 Redis最常用的功能 緩存 分散式鎖 ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...