【OpenVINO™】在C#中使用 OpenVINO™ 部署 YOLOv10 模型實現目標

来源:https://www.cnblogs.com/guojin-blogs/p/18215648
-Advertisement-
Play Games

最近YOLO家族又添新成員:YOLOv10,YOLOv10 提出了一種一致的雙任務方法,用於無nms訓練的YOLOs,它同時帶來了具有競爭力的性能和較低的推理延遲。此外,還介紹了整體效率-精度驅動的模型設計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了... ...


  最近YOLO家族又添新成員:YOLOv10,YOLOv10 提出了一種一致的雙任務方法,用於無nms訓練的YOLOs,它同時帶來了具有競爭力的性能和較低的推理延遲。此外,還介紹了整體效率-精度驅動的模型設計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。在本文中,我們將結合OpenVINO™ C# API 使用最新發佈的OpenVINO™ 2024.1部署YOLOv10 目標檢測模型

  OpenVINO™ C# API項目鏈接:

https://github.com/guojin-yan/OpenVINO-CSharp-API.git

  使用 OpenVINO™ C# API 部署 YOLOv10 全部源碼:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/

1. 前言

1.1 OpenVINO™ C# API

  英特爾發行版 OpenVINO™ 工具套件基於 oneAPI 而開發,可以加快高性能電腦視覺和深度學習視覺應用開發速度工具套件,適用於從邊緣到雲的各種英特爾平臺上,幫助用戶更快地將更準確的真實世界結果部署到生產系統中。通過簡化的開發工作流程,OpenVINO™ 可賦能開發者在現實世界中部署高性能應用程式和演算法。

  2024年4月25日,英特爾發佈了開源 OpenVINO™ 2024.1 工具包,用於在各種硬體上優化和部署人工智慧推理。更新了更多的 Gen AI 覆蓋範圍和框架集成,以最大限度地減少代碼更改。同時提供了更廣泛的 LLM 模型支持和更多的模型壓縮技術。通過壓縮嵌入的額外優化減少了 LLM 編譯時間,改進了採用英特爾®高級矩陣擴展 (Intel® AMX) 的第 4 代和第 5 代英特爾®至強®處理器上 LLM 的第 1 令牌性能。通過對英特爾®銳炫™ GPU 的 oneDNN、INT4 和 INT8 支持,實現更好的 LLM 壓縮和改進的性能。最後實現了更高的可移植性和性能,可在邊緣、雲端或本地運行 AI。

  OpenVINO™ C# API 是一個 OpenVINO™ 的 .Net wrapper,應用最新的 OpenVINO™ 庫開發,通過 OpenVINO™ C API 實現 .Net 對 OpenVINO™ Runtime 調用,使用習慣與 OpenVINO™ C++ API 一致。OpenVINO™ C# API 由於是基於 OpenVINO™ 開發,所支持的平臺與 OpenVINO™ 完全一致,具體信息可以參考 OpenVINO™。通過使用 OpenVINO™ C# API,可以在 .NET、.NET Framework等框架下使用 C# 語言實現深度學習模型在指定平臺推理加速。

  下表為當前發佈的 OpenVINO™ C# API NuGet Package,支持多個目標平臺,可以通過NuGet一鍵安裝所有依賴。

Core Managed Libraries

Package Description Link
OpenVINO.CSharp.API OpenVINO C# API core libraries NuGet Gallery
OpenVINO.CSharp.API.Extensions OpenVINO C# API core extensions libraries NuGet Gallery
OpenVINO.CSharp.API.Extensions.OpenCvSharp OpenVINO C# API core extensions libraries use OpenCvSharp NuGet Gallery
OpenVINO.CSharp.API.Extensions.EmguCV OpenVINO C# API core extensions libraries use EmguCV NuGet Gallery

Native Runtime Libraries

Package Description Link
OpenVINO.runtime.win Native bindings for Windows NuGet Gallery
OpenVINO.runtime.ubuntu.22-x86_64 Native bindings for ubuntu.22-x86_64 NuGet Gallery
OpenVINO.runtime.ubuntu.20-x86_64 Native bindings for ubuntu.20-x86_64 NuGet Gallery
OpenVINO.runtime.ubuntu.18-x86_64 Native bindings for ubuntu.18-x86_64 NuGet Gallery
OpenVINO.runtime.debian9-arm64 Native bindings for debian9-arm64 NuGet Gallery
OpenVINO.runtime.debian9-armhf Native bindings for debian9-armhf NuGet Gallery
OpenVINO.runtime.centos7-x86_64 Native bindings for centos7-x86_64 NuGet Gallery
OpenVINO.runtime.rhel8-x86_64 Native bindings for rhel8-x86_64 NuGet Gallery
OpenVINO.runtime.macos-x86_64 Native bindings for macos-x86_64 NuGet Gallery
OpenVINO.runtime.macos-arm64 Native bindings for macos-arm64 NuGet Gallery

1.2 YOLOv10

  在過去的幾年裡,由於在計算成本和檢測性能之間取得了有效的平衡,YOLOs已經成為實時目標檢測領域的主導範式。然而,對非最大抑制(NMS)的後處理依賴阻礙了yolo的端到端部署,並對推理延遲產生不利影響。為瞭解決這些問題,首先提出了一種一致的雙任務方法,用於無nms訓練的YOLOs,它同時帶來了具有競爭力的性能和較低的推理延遲。此外,我們還介紹了整體效率-精度驅動的模型設計策略。我們從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。我們的努力成果是用於實時端到端目標檢測的新一代YOLO系列,稱為YOLOv10。大量的實驗表明,YOLOv10在各種模型尺度上都達到了最先進的性能和效率。例如,我們的YOLOv10-S在COCO上類似的AP下比RT-DETR-R18快1.8倍,同時參數數量和FLOPs減少2.8倍。與YOLOv9-C相比,在相同性能下,YOLOv10-B的延遲減少了46%,參數減少了25%。

1bf95709522207f785df9c0fc794848e_720

  下圖為YOLOv10官方提供的模型訓練精度以及不同模型數據量,可以看出YOLOv10與之前其他系列相比,數據量在減少的同時,精度依舊有所提升。

784e2fdf726621acac7b5ae610759393_720

2. 模型獲取

2.1 源碼下載

  YOLOv10 模型需要源碼進行下載,首先克隆GitHub上的源碼,輸入以下指令:

git clone https://github.com/THU-MIG/yolov10.git
cd yolov10

2.2 配置環境

  接下來安裝模型下載以及轉換環境,此處使用Anaconda進行程式集管理,輸入以下指令創建一個yolov10環境:

conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .

  然後安裝OpenVINO™環境,輸入以下指令:

pip install openvino==2024.1.0

2.3 下載模型

  首先導出目標識別模型,此處以官方預訓練模型為例,首先下載預訓練模型文件,然後調用yolo導出ONBNX格式的模型文件,最後使用 OpenVINO™ 的模型轉換命令將模型轉為IR格式,依次輸入以下指令即可:

wget https://github.com/jameslahm/yolov10/releases/download/v1.0/yolov10s.pt
yolo export model=yolov10s.pt format=onnx opset=13 simplify
ovc yolov10s.onnx

image-20240525185303768

  模型的結構如下圖所示:

image-20240525185348430

3. Yolov10 項目配置

3.1 項目創建與環境配置

  在Windows平臺開發者可以使用Visual Studio平臺開發程式,但無法跨平臺實現,為了實現跨平臺,此處採用dotnet指令進行項目的創建和配置。

  首先使用dotnet創建一個測試項目,在終端中輸入一下指令:

dotnet new console --framework net6.0 --use-program-main -o yolov10

  此處以Windows平臺為例安裝項目依賴,首先是安裝OpenVINO™ C# API項目依賴,在命令行中輸入以下指令即可:

dotnet add package OpenVINO.CSharp.API
dotnet add package OpenVINO.runtime.win
dotnet add package OpenVINO.CSharp.API.Extensions
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp

  關於在不同平臺上搭建 OpenVINO™ C# API 開發環境請參考以下文章: 《在Windows上搭建OpenVINO™C#開發環境》《在Linux上搭建OpenVINO™C#開發環境》《在MacOS上搭建OpenVINO™C#開發環境》

接下來安裝使用到的圖像處理庫 OpenCvSharp,在命令行中輸入以下指令即可:

dotnet add package OpenCvSharp4
dotnet add package OpenCvSharp4.Extensions
dotnet add package OpenCvSharp4.runtime.win

  關於在其他平臺上搭建 OpenCvSharp 開發環境請參考以下文章:《【OpenCV】在Linux上使用OpenCvSharp》《【OpenCV】在MacOS上使用OpenCvSharp》

添加完成項目依賴後,項目的配置文件如下所示:

<Project Sdk="Microsoft.NET.Sdk">

  <PropertyGroup>
    <OutputType>Exe</OutputType>
    <TargetFramework>net6.0</TargetFramework>
    <ImplicitUsings>enable</ImplicitUsings>
    <Nullable>enable</Nullable>
  </PropertyGroup>
  
  <ItemGroup>
    <PackageReference Include="OpenCvSharp4" Version="4.9.0.20240103" />
    <PackageReference Include="OpenCvSharp4.Extensions" Version="4.9.0.20240103" />
    <PackageReference Include="OpenCvSharp4.runtime.win" Version="4.9.0.20240103" />
    <PackageReference Include="OpenVINO.CSharp.API" Version="2024.0.0.1" />
    <PackageReference Include="OpenVINO.CSharp.API.Extensions.OpenCvSharp" Version="1.0.4" />
    <PackageReference Include="OpenVINO.runtime.win" Version="2024.0.0.1" />
  </ItemGroup>

</Project>

3.2 定義模型預測方法

  使用 OpenVINO™ C# API 部署模型主要包括以下幾個步驟:

  • 初始化 OpenVINO Runtime Core
  • 讀取本地模型(將圖片數據預處理方式編譯到模型)
  • 將模型編譯到指定設備
  • 創建推理通道
  • 處理圖像輸入數據
  • 設置推理輸入數據
  • 模型推理
  • 獲取推理結果
  • 處理結果數據

3.2.1 定義目標檢測模型方法

  按照 OpenVINO™ C# API 部署深度學習模型的步驟,編寫YOLOv10模型部署流程,在之前的項目里,我們已經部署了YOLOv5~9等一系列模型,其部署流程是基本一致的,YOLOv10模型部署代碼如下所示:

static void yolov10_det(string model_path, string image_path, string device)
{
    // -------- Step 1. Initialize OpenVINO Runtime Core --------
    Core core = new Core();
    // -------- Step 2. Read inference model --------
    Model model = core.read_model(model_path);
    OvExtensions.printf_model_info(model);
    // -------- Step 3. Loading a model to the device --------
    CompiledModel compiled_model = core.compile_model(model, device);
    // -------- Step 4. Create an infer request --------
    InferRequest infer_request = compiled_model.create_infer_request();
    // -------- Step 5. Process input images --------
    Mat image = new Mat(image_path); // Read image by opencvsharp
    int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
    Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
    Rect roi = new Rect(0, 0, image.Cols, image.Rows);
    image.CopyTo(new Mat(max_image, roi));
    float factor = (float)(max_image_length / 640.0);
    // -------- Step 6. Set up input data --------
    Tensor input_tensor = infer_request.get_input_tensor();
    Shape input_shape = input_tensor.get_shape();
    Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false);
    float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
    Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
    input_tensor.set_data<float>(input_data);
    // -------- Step 7. Do inference synchronously --------
    infer_request.infer();
    // -------- Step 8. Get infer result data --------
    Tensor output_tensor = infer_request.get_output_tensor();
    int output_length = (int)output_tensor.get_size();
    float[] output_data = output_tensor.get_data<float>(output_length);
    // -------- Step 9. Process reault  --------
    List<Rect> position_boxes = new List<Rect>();
    List<int> class_ids = new List<int>();
    List<float> confidences = new List<float>();
    // Preprocessing output results
    for (int i = 0; i < output_data.Length / 6; i++)
    {
        int s = 6 * i;
        if ((float)output_data[s + 4] > 0.5)
        {
            float cx = output_data[s + 0];
            float cy = output_data[s + 1];
            float dx = output_data[s + 2];
            float dy = output_data[s + 3];
            int x = (int)((cx) * factor);
            int y = (int)((cy) * factor);
            int width = (int)((dx - cx) * factor);
            int height = (int)((dy - cy) * factor);
            Rect box = new Rect();
            box.X = x;
            box.Y = y;
            box.Width = width;
            box.Height = height;

            position_boxes.Add(box);
            class_ids.Add((int)output_data[s + 5]);
            confidences.Add((float)output_data[s + 4]);
        }
    }

    for (int i = 0; i < class_ids.Count; i++)
    {
        int index = i;
        Cv2.Rectangle(image, position_boxes[index], new Scalar(0, 0, 255), 2, LineTypes.Link8);
        Cv2.Rectangle(image, new OpenCvSharp.Point(position_boxes[index].TopLeft.X, position_boxes[index].TopLeft.Y + 30),
            new OpenCvSharp.Point(position_boxes[index].BottomRight.X, position_boxes[index].TopLeft.Y), new Scalar(0, 255, 255), -1);
        Cv2.PutText(image, class_ids[index] + "-" + confidences[index].ToString("0.00"),
            new OpenCvSharp.Point(position_boxes[index].X, position_boxes[index].Y + 25),
            HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
    }
    string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
        Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
    Cv2.ImWrite(output_path, image);
    Slog.INFO("The result save to " + output_path);
    Cv2.ImShow("Result", image);
    Cv2.WaitKey(0);
}

3.2.2 使用OpenVINO™ 預處理介面編譯模型

  OpenVINO™提供了推理數據預處理介面,用戶可以更具模型的輸入數據預處理方式進行設置。在讀取本地模型後,調用數據預處理介面,按照模型要求的數據預處理方式進行輸入配置,然後再將配置好的預處理介面與模型編譯到一起,這樣便實現了將模型預處理與模型結合在一起,實現OpenVINO對於處理過程的加速。主要是現在代碼如下所示:

static void yolov10_det_process(string model_path, string image_path, string device)
{
    // -------- Step 1. Initialize OpenVINO Runtime Core --------
    Core core = new Core();
    // -------- Step 2. Read inference model --------
    Model model = core.read_model(model_path);
    OvExtensions.printf_model_info(model);
    PrePostProcessor processor = new PrePostProcessor(model);
    Tensor input_tensor_pro = new Tensor(new OvType(ElementType.U8), new Shape(1, 640, 640, 3));
    InputInfo input_info = processor.input(0);
    InputTensorInfo input_tensor_info = input_info.tensor();
    input_tensor_info.set_from(input_tensor_pro).set_layout(new Layout("NHWC")).set_color_format(ColorFormat.BGR);

    PreProcessSteps process_steps = input_info.preprocess();
    process_steps.convert_color(ColorFormat.RGB).resize(ResizeAlgorithm.RESIZE_LINEAR)
        .convert_element_type(new OvType(ElementType.F32)).scale(255.0f).convert_layout(new Layout("NCHW"));
    Model new_model = processor.build();
    // -------- Step 3. Loading a model to the device --------
    CompiledModel compiled_model = core.compile_model(new_model, device);
    // -------- Step 4. Create an infer request --------
    InferRequest infer_request = compiled_model.create_infer_request();
    // -------- Step 5. Process input images --------
    Mat image = new Mat(image_path); // Read image by opencvsharp
    int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
    Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
    Rect roi = new Rect(0, 0, image.Cols, image.Rows);
    image.CopyTo(new Mat(max_image, roi));
    Cv2.Resize(max_image, max_image, new OpenCvSharp.Size(640, 640));
    float factor = (float)(max_image_length / 640.0);
    // -------- Step 6. Set up input data --------
    Tensor input_tensor = infer_request.get_input_tensor();
    Shape input_shape = input_tensor.get_shape();
    byte[] input_data = new byte[input_shape[1] * input_shape[2] * input_shape[3]];
    //max_image.GetArray<int>(out input_data);
    Marshal.Copy(max_image.Ptr(0), input_data, 0, input_data.Length);
    IntPtr destination = input_tensor.data();
    Marshal.Copy(input_data, 0, destination, input_data.Length);
    // -------- Step 7. Do inference synchronously --------
	... ...(後續與上文代碼一致)
}

3.2 模型預測方法調用

  定義完模型推理介面後,便可以在主函數里進行調用。此處為了讓大家更好的復現本文代碼,提供了線上模型,用戶只需要運行以下代碼,便可以直接下載轉換好的模型進行模型推理,無需再自行轉換,主函數代碼如下所示:

static void Main(string[] args)
{
    string model_path = "";
    string image_path = "";
    string device = "AUTO";
    if (args.Length == 0)
    {
        if (!Directory.Exists("./model"))
        {
            Directory.CreateDirectory("./model");
        }
        if (!File.Exists("./model/yolov10s.bin") && !File.Exists("./model/yolov10s.bin"))
        {
            if (!File.Exists("./model/yolov10s.tar"))
            {
                _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov10s.tar",
                    "./model/yolov10s.tar").Result;
            }
            Download.unzip("./model/yolov10s.tar", "./model/");
        }

        if (!File.Exists("./model/test_image.jpg"))
        {
            _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/test_det_02.jpg",
                "./model/test_image.jpg").Result;
        }
        model_path = "./model/yolov10s.xml";
        image_path = "./model/test_image.jpg";
    }
    else if (args.Length >= 2)
    {
        model_path = args[0];
        image_path = args[1];
        device = args[2];
    }
    else
    {
        Console.WriteLine("Please enter the correct command parameters, for example:");
        Console.WriteLine("> 1. dotnet run");
        Console.WriteLine("> 2. dotnet run <model path> <image path> <device name>");
    }
    // -------- Get OpenVINO runtime version --------

    OpenVinoSharp.Version version = Ov.get_openvino_version();

    Slog.INFO("---- OpenVINO INFO----");
    Slog.INFO("Description : " + version.description);
    Slog.INFO("Build number: " + version.buildNumber);

    Slog.INFO("Predict model files: " + model_path);
    Slog.INFO("Predict image  files: " + image_path);
    Slog.INFO("Inference device: " + device);
    Slog.INFO("Start yolov8 model inference.");

    //yolov10_det(model_path, image_path, device);
    yolov10_det_process(model_path, image_path, device);
}

代碼提示:

​ 由於篇幅限制,上文中只展示了部分代碼,想要獲取全部源碼,請訪問項目GitHub自行下載:

​ 使用OpenVINO™ C# API部署YOLOv10目標檢測模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_opencvsharp/Program.cs

此外為了滿足習慣使用EmguCV處理圖像數據的開發者,此處我們也提供了EmguCV版本代碼:、

​ 使用OpenVINO™ C# API部署YOLOv10目標檢測模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_emgucv/Program.cs

4. 項目運行與演示

4.1 項目編譯和運行

  接下來輸入項目編譯指令進行項目編譯,輸入以下指令即可:

dotnet build

  接下來運行編譯後的程式文件,在CMD中輸入以下指令,運行編譯後的項目文件:

dotnet run --no-build

運行後項目輸出為:

4.2 YOLOv10 目標檢測模型運行結果

  下圖為YOLOv10 目標檢測模型運行輸出信息,此處我們使用線上轉換好的模型進行推理。,首先會下載指定模型以及推理數據到本地,這樣避免了開發者在自己配置環境和下載模型;接下來是輸出列印 OpenVINO™ 版本信息,此處我們使用NuGet安裝的依賴項,已經是OpenVINO™ 2024.0最新版本;接下來就是列印相關的模型信息,並輸出每個過程所消耗時間。

image-20240525185650687

  下圖為使用YOLOv10 目標檢測模型推理結果:

image-20240525185823557

5. 總結

   在該項目中,我們結合之前開發的 OpenVINO™ C# API 項目部署YOLOv10模型,成功實現了對象目標檢測與實例分割,並且根據不同開發者的使用習慣,同時提供了OpenCvSharp以及Emgu.CV兩種版本,供各位開發者使用。最後如果各位開發者在使用中有任何問題,歡迎大家與我聯繫。


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • ​AV1是一種新興的免費視頻編碼標準,它由開放媒體聯盟(Alliance for Open Media,簡稱AOM)於2018年制定,融合了Google VP10、Mozilla Daala以及Cisco Thor三款開源項目的成果。據說在實際測試中,AV1標準比H.265(HEVC)的壓縮率提升了 ...
  • 最近網上衝浪的時候看到有人分享了自己最近一次性能優化的經驗。我向來對性能是比較敏感的,所以就點進去看了。 然而我越看越覺得蹊蹺,但本著“性能問題和性能優化要靠性能測試做依據”,我不能憑空懷疑別人吧,所以我做了完整的測試並寫下了這篇文章。 可疑的優化方案 分享者遇到的問題很簡單:他發現程式中超過一半的 ...
  • 本文介紹了註意力機制的基本原理,並使用 Python 和 TensorFlow/Keras 實現了一個簡單的註意力機制模型應用於文本分類任務。 ...
  • bolo-solo —— Bolo菠蘿博客,一個基於 Java 實現的博客系統,簡單易部署,具有精緻的主題,專為程式員設計。 ...
  • Stream API 是 Java 8 中最為重要的更新之一,是處理集合的關鍵抽象概念,也是每個 Java 後端開發人員都必須無條件掌握的內容。 在之前的開發中,遇到了這樣的需求:記錄某個更新操作之前的數據作為日誌內容,之後可以供管理員在頁面上查看該日誌。 ...
  • 在軟體開發過程中,集成測試是至關重要的一環。它確保不同組件之間的協作正常,並驗證系統在整體上的功能和性能。然而,傳統的集成測試往往需要依賴於外部資源,如資料庫、消息隊列等,這給測試環境的搭建和維護帶來了一定的挑戰。 為瞭解決這個問題,我們可以使用 TestContainers 這個強大的開源工具。T ...
  • 前言:說到爬蟲,基本上清一色的都知道用Python,但是對於一些沒玩過或者不想玩Python的來說,卻比較頭大一點。所以以下我站在C# 的角度,來寫一個簡單的Demo,用來演示C# 實現的簡單小爬蟲。大家感興趣可以自己拓展出更加豐富的爬蟲功能。 前提:引用包HtmlAgilityPack 先來個爬取 ...
  • 自動篩選器是 Excel 中的一個基本但極其有用的功能,它可以讓你根據特定的條件來自動隱藏和顯示你的數據。當有大量的數據需要處理時,這個功能可以幫你快速找到你需要的信息,從未更加有效地分析和處理相關數據。 下麵將介紹如何使用免費.NET Excel庫在Excel中添加、應用和刪除自動篩選器。包含以下 ...
一周排行
    -Advertisement-
    Play Games
  • 1、預覽地址:http://139.155.137.144:9012 2、qq群:801913255 一、前言 隨著網路的發展,企業對於信息系統數據的保密工作愈發重視,不同身份、角色對於數據的訪問許可權都應該大相徑庭。 列如 1、不同登錄人員對一個數據列表的可見度是不一樣的,如數據列、數據行、數據按鈕 ...
  • 前言 上一篇文章寫瞭如何使用RabbitMQ做個簡單的發送郵件項目,然後評論也是比較多,也是準備去學習一下如何確保RabbitMQ的消息可靠性,但是由於時間原因,先來說說設計模式中的簡單工廠模式吧! 在瞭解簡單工廠模式之前,我們要知道C#是一款面向對象的高級程式語言。它有3大特性,封裝、繼承、多態。 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 介紹 Nodify是一個WPF基於節點的編輯器控制項,其中包含一系列節點、連接和連接器組件,旨在簡化構建基於節點的工具的過程 ...
  • 創建一個webapi項目做測試使用。 創建新控制器,搭建一個基礎框架,包括獲取當天日期、wiki的請求地址等 創建一個Http請求幫助類以及方法,用於獲取指定URL的信息 使用http請求訪問指定url,先運行一下,看看返回的內容。內容如圖右邊所示,實際上是一個Json數據。我們主要解析 大事記 部 ...
  • 最近在不少自媒體上看到有關.NET與C#的資訊與評價,感覺大家對.NET與C#還是不太瞭解,尤其是對2016年6月發佈的跨平臺.NET Core 1.0,更是知之甚少。在考慮一番之後,還是決定寫點東西總結一下,也回顧一下.NET的發展歷史。 首先,你沒看錯,.NET是跨平臺的,可以在Windows、 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 添加節點(nodes) 通過上一篇我們已經創建好了編輯器實例現在我們為編輯器添加一個節點 添加model和viewmode ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...
  • 類型檢查和轉換:當你需要檢查對象是否為特定類型,並且希望在同一時間內將其轉換為那個類型時,模式匹配提供了一種更簡潔的方式來完成這一任務,避免了使用傳統的as和is操作符後還需要進行額外的null檢查。 複雜條件邏輯:在處理複雜的條件邏輯時,特別是涉及到多個條件和類型的情況下,使用模式匹配可以使代碼更 ...
  • 在日常開發中,我們經常需要和文件打交道,特別是桌面開發,有時候就會需要載入大批量的文件,而且可能還會存在部分文件缺失的情況,那麼如何才能快速的判斷文件是否存在呢?如果處理不當的,且文件數量比較多的時候,可能會造成卡頓等情況,進而影響程式的使用體驗。今天就以一個簡單的小例子,簡述兩種不同的判斷文件是否... ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...