C#批量插入數據到Sqlserver中的四種方式

来源:http://www.cnblogs.com/jiekzou/archive/2016/12/09/6145550.html
-Advertisement-
Play Games

我的新書ASP.NET MVC企業級實戰預計明年2月份出版,感謝大家關註! 本篇,我將來講解一下在Sqlserver中批量插入數據。 先創建一個用來測試的資料庫和表,為了讓插入數據更快,表中主鍵採用的是GUID,表中沒有創建任何索引。GUID必然是比自增長要快的,因為你生成一個GUID演算法所花的時間 ...


我的新書ASP.NET MVC企業級實戰預計明年2月份出版,感謝大家關註!

本篇,我將來講解一下在Sqlserver中批量插入數據。

先創建一個用來測試的資料庫和表,為了讓插入數據更快,表中主鍵採用的是GUID,表中沒有創建任何索引。GUID必然是比自增長要快的,因為你生成一個GUID演算法所花的時間肯定比你從數據表中重新查詢上一條記錄的ID的值然後再進行加1運算要少。而如果存在索引的情況下,每次插入記錄都會進行索引重建,這是非常耗性能的。如果表中無可避免的存在索引,我們可以通過先刪除索引,然後批量插入,最後再重建索引的方式來提高效率。

create database CarSYS;    
go    
use CarSYS;    
go
CREATE
TABLE Product( Id UNIQUEIDENTIFIER PRIMARY KEY, NAME VARCHAR(50) NOT NULL, Price DECIMAL(18,2) NOT NULL )

我們通過SQL腳本來插入數據,常見如下四種方式。

方式一:一條一條插入,性能最差,不建議使用。

INSERT INTO Product(Id,Name,Price) VALUES(newid(),'牛欄1段',160);
INSERT INTO Product(Id,Name,Price) VALUES(newid(),'牛欄2段',260);
......

方式二:insert bulk

語法如下:

    BULK INSERT [ [ 'database_name'.][ 'owner' ].]{ 'table_name' FROM 'data_file' }       
    WITH  (   
            [ BATCHSIZE [ = batch_size ] ],       
            [ CHECK_CONSTRAINTS ],           
            [ CODEPAGE [ = 'ACP' | 'OEM' | 'RAW' | 'code_page' ] ],   
            [ DATAFILETYPE [ = 'char' | 'native'| 'widechar' | 'widenative' ] ],               
            [ FIELDTERMINATOR [ = 'field_terminator' ] ],   
            [ FIRSTROW [ = first_row ] ],   
            [ FIRE_TRIGGERS ],   
            [ FORMATFILE = 'format_file_path' ],   
            [ KEEPIDENTITY ],   
            [ KEEPNULLS ],   
            [ KILOBYTES_PER_BATCH [ = kilobytes_per_batch ] ],      
            [ LASTROW [ = last_row ] ],   
            [ MAXERRORS [ = max_errors ] ],   
            [ ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ],     
            [ ROWS_PER_BATCH [ = rows_per_batch ] ],   
            [ ROWTERMINATOR [ = 'row_terminator' ] ],             
            [ TABLOCK ],   
    )  

相關參數說明:

BULK INSERT    
   [ database_name . [ schema_name ] . | schema_name . ] [ table_name | view_name ]    
      FROM 'data_file'    
     [ WITH    
        (    
   [ [ , ] BATCHSIZE = batch_size ]    --BATCHSIZE指令來設置在單個事務中可以插入到表中的記錄的數量   
   [ [ , ] CHECK_CONSTRAINTS ]     --指定在大容量導入操作期間,必須檢查所有對目標表或視圖的約束。若沒有 CHECK_CONSTRAINTS 選項,則所有 CHECK 和 FOREIGN KEY 約束都將被忽略,並且在此操作之後表的約束將標記為不可信。   
   [ [ , ] CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' } ]  --指定該數據文件中數據的代碼頁   
   [ [ , ] DATAFILETYPE =    
      { 'char' | 'native'| 'widechar' | 'widenative' } ]  --指定 BULK INSERT 使用指定的數據文件類型值執行導入操作。   
   [ [ , ] FIELDTERMINATOR = 'field_terminator' ]  --標識分隔內容的符號   
   [ [ , ] FIRSTROW = first_row ]    --指定要載入的第一行的行號。預設值是指定數據文件中的第一行   
   [ [ , ] FIRE_TRIGGERS ]     --是否啟動觸發器   
   [ [ , ] FORMATFILE = 'format_file_path' ]    
   [ [ , ] KEEPIDENTITY ]   --指定導入數據文件中的標識值用於標識列   
   [ [ , ] KEEPNULLS ]    --指定在大容量導入操作期間空列應保留一個空值,而不插入用於列的任何預設值   
   [ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch ]    
   [ [ , ] LASTROW = last_row ]   --指定要載入的最後一行的行號   
   [ [ , ] MAXERRORS = max_errors ]   --指定允許在數據中出現的最多語法錯誤數,超過該數量後將取消大容量導入操作。   
   [ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ]  --指定數據文件中的數據如何排序   
   [ [ , ] ROWS_PER_BATCH = rows_per_batch ]    
   [ [ , ] ROWTERMINATOR = 'row_terminator' ]   --標識分隔行的符號   
   [ [ , ] TABLOCK ]     --指定為大容量導入操作持續時間獲取一個表級鎖   
   [ [ , ] ERRORFILE = 'file_name' ]   --指定用於收集格式有誤且不能轉換為 OLE DB 行集的行的文件。   
        )]   

方式三:INSERT INTO xx select...

INSERT INTO Product(Id,Name,Price)
 SELECT NEWID(),'牛欄1段',160 
 UNION ALL 
 SELECT NEWID(),'牛欄2段',180
 UNION ALL
...... 

方式四:拼接SQL

INSERT INTO Product(Id,Name,Price) VALUES
(newid(),'牛欄1段',160)
,(newid(),'牛欄2段',260)
......

在C#中通過ADO.NET來實現批量操作存在四種與之對應的方式。

方式一:逐條插入

        #region 方式一
        static void InsertOne()
        {
            Console.WriteLine("採用一條一條插入的方式實現");
            Stopwatch sw = new Stopwatch();

            using (SqlConnection conn = new SqlConnection(StrConnMsg)) //using中會自動Open和Close 連接。
            {
                string sql = "INSERT INTO Product(Id,Name,Price) VALUES(newid(),@p,@d)";
                conn.Open();
                for (int i = 0; i < totalRow; i++)
                {
                    using (SqlCommand cmd = new SqlCommand(sql, conn))
                    {
                        cmd.Parameters.AddWithValue("@p", "商品" + i);
                        cmd.Parameters.AddWithValue("@d", i);
                        sw.Start();
                        cmd.ExecuteNonQuery();
                        Console.WriteLine(string.Format("插入一條記錄,已耗時{0}毫秒", sw.ElapsedMilliseconds));
                    }
                    if (i == getRow)
                    {
                        sw.Stop();
                        break;
                    }
                }
            }
            Console.WriteLine(string.Format("插入{0}條記錄,每{4}條的插入時間是{1}毫秒,預估總得插入時間是{2}毫秒,{3}分鐘",
totalRow, sw.ElapsedMilliseconds, ((sw.ElapsedMilliseconds / getRow) * totalRow), GetMinute((sw.ElapsedMilliseconds / getRow * totalRow)), getRow)); } static int GetMinute(long l) { return (Int32)l / 60000; } #endregion

運行結果如下:

 

我們會發現插入100w條記錄,預計需要50分鐘時間,每插入一條記錄大概需要3毫秒左右。

方式二:使用SqlBulk

        #region 方式二
        static void InsertTwo()
        {
            Console.WriteLine("使用Bulk插入的實現方式");
            Stopwatch sw = new Stopwatch();
            DataTable dt = GetTableSchema(); 

            using (SqlConnection conn = new SqlConnection(StrConnMsg))
            {
                SqlBulkCopy bulkCopy = new SqlBulkCopy(conn);
                bulkCopy.DestinationTableName = "Product";
                bulkCopy.BatchSize = dt.Rows.Count;
                conn.Open();
                sw.Start();

                for (int i = 0; i < totalRow;i++ )
                {
                    DataRow dr = dt.NewRow();
                    dr[0] = Guid.NewGuid();
                    dr[1] = string.Format("商品", i);
                    dr[2] = (decimal)i;
                    dt.Rows.Add(dr);
                }
                    if (dt != null && dt.Rows.Count != 0)
                    {
                        bulkCopy.WriteToServer(dt);
                        sw.Stop();
                    }
                    Console.WriteLine(string.Format("插入{0}條記錄共花費{1}毫秒,{2}分鐘", totalRow, sw.ElapsedMilliseconds, GetMinute(sw.ElapsedMilliseconds)));
            }
        }
        static DataTable GetTableSchema()
        {
            DataTable dt = new DataTable();
            dt.Columns.AddRange(new DataColumn[] {   
        new DataColumn("Id",typeof(Guid)),  
        new DataColumn("Name",typeof(string)),  
        new DataColumn("Price",typeof(decimal))});
            return dt;
        }
        #endregion

運行結果如下:

插入100w條記錄才8s多,是不是很溜。

打開Sqlserver Profiler跟蹤,會發現執行的是如下語句:

insert bulk Product ([Id] UniqueIdentifier, [NAME] VarChar(50) COLLATE Chinese_PRC_CI_AS, [Price] Decimal(18,2))

方式三:使用TVPs(表值參數)插入數據

從sqlserver 2008起開始支持TVPs。創建緩存表ProductTemp ,執行如下SQL。

CREATE TYPE ProductTemp AS  TABLE(
Id UNIQUEIDENTIFIER PRIMARY KEY,
NAME VARCHAR(50) NOT NULL,
Price DECIMAL(18,2) NOT NULL
)

執行完成之後,會發現在資料庫CarSYS下麵多了一張緩存表ProductTemp

可見插入100w條記錄共花費了11秒多。

方式四:拼接SQL

此種方法在C#中有限制,一次性只能批量插入1000條,所以就得分段進行插入。

        #region 方式四
        static void InsertFour()
        {
            Console.WriteLine("採用拼接批量SQL插入的方式實現");
            Stopwatch sw = new Stopwatch();

            using (SqlConnection conn = new SqlConnection(StrConnMsg)) //using中會自動Open和Close 連接。
            {
                conn.Open();
                sw.Start();
                for (int j = 0; j < totalRow / getRow;j++ )
                {
                    StringBuilder sb = new StringBuilder();
                    sb.Append("INSERT INTO Product(Id,Name,Price) VALUES");
                    using (SqlCommand cmd = new SqlCommand())
                    {
                       
                        for (int i = 0; i < getRow; i++)
                        {
                            sb.AppendFormat("(newid(),'商品{0}',{0}),", j*i+i);
                        }
                        cmd.Connection = conn;
                        cmd.CommandText = sb.ToString().TrimEnd(',');
                        cmd.ExecuteNonQuery();
                    }
                }
                sw.Stop();
                Console.WriteLine(string.Format("插入{0}條記錄,共耗時{1}毫秒",totalRow,sw.ElapsedMilliseconds));
            }
        }
        #endregion

運行結果如下:

我們可以看到大概花費了10分鐘。雖然在方式一的基礎上,性能有了較大的提升,但是顯然還是不夠快。

總結:大數據批量插入方式一和方式四儘量避免使用而方式二和方式三都是非常高效的批量插入數據方式。其都是通過構建DataTable的方式插入的,而我們知道DataTable是存在記憶體中的,所以當數據量特別特別大,大到記憶體中無法一次性存儲的時候,可以分段插入。比如需要插入9千萬條數據,可以分成9段進行插入,一次插入1千萬條。而在for迴圈中直接進行資料庫操作,我們是應該儘量避免的。每一次資料庫的連接、打開和關閉都是比較耗時的,雖然在C#中存在資料庫連接池,也就是當我們使用using或者conn.Close(),進行釋放連接時,其實並沒有真正關閉資料庫連接,它只是讓連接以類似於休眠的方式存在,當再次操作的時候,會從連接池中找一個休眠狀態的連接,喚醒它,這樣可以有效的提高併發能力,減少連接損耗。而連接池中的連接數,我們都是可以配置的。

源碼下載:http://pan.baidu.com/s/1slm1wPv


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 一、鎖卡背景介紹 鎖卡即SIMLock,當手機開機啟動或者插入SIM卡時,手機modem側預置在NV項中的配置信息會與SIM卡中的信息做比對,檢測是否匹配。若匹配,則SIM卡可以正常使用。若不匹配,則SIM卡相關功能均無法正常使用,例如撥打電話、發送簡訊及上網等;或者是只能註冊2G網,不能註冊4G。 ...
  • 前記 公司內部使用的是MapR版本的Hadoop生態系統,因而從MapR的官網看到了這篇文文章:An In-Depth Look at the HBase Architecture,原本想翻譯全文,然而如果翻譯就需要各種咬文嚼字,太麻煩,因而本文大部分使用了自己的語言,並且加入了其他資源的參考理解以 ...
  • 註:1、本文未經博主同意,不得轉載! 2、所有終端語句都分行顯示,以免大家看錯; 直接開始,過程中對每一步可能出現的錯誤都進行了說明。 1、安裝好xampp,然後打開終端,輸入: mysql -u root -p 成功進入了,擦,你運氣真好,後面不用看了。 2、如果提示command not fou ...
  • 下麵操作預設在安裝Oralce資料庫的伺服器上運行。 1)確保Oracle 基本服務都已啟動 OracleDBConsoleorcl OracleOraDb11g_home1TNSListener OracleServiceORCL 2)打開命令行,使用 sqlplus nokia_user/ora ...
  • VS在安裝之前需要安裝.NET Framework,我安裝的是4.0版本。但是安裝進度條到一半左右時就卡住不動了。前前後後重試多次,還有幾次重新開機,但都沒用。 開始還以為是安裝的系統有問題。後來在網上求助,嘗試幾次之後終於找到瞭解決方案。這裡記下來,方便以後使用。以下為主要的操作步驟: 1. 需要 ...
  • 前言 最近幫客戶做資料庫優化的時候發現客戶系統使用了很多函數,自己竟然不知道是幹啥的,好歹做過好幾年開發的我必然不能忍!於是翻了翻資料自己學習了一下隨便也分享給群友。 巧用函數的霸氣作用———我做開發的時候就深深的體會到知道一個簡單的函數要省去多少代碼量,讓功能很簡單的就能實現。 註:以下提及的方法 ...
  • SQL 中的 substring 函數是用來截取一個欄位資料中的其中一部分。 例如,我們需要將字元串'abdcsef'中的‘abd’給提取出來,則可用substring 來實現: 結果: 括弧中數字‘1’表示截取的起始位置是從該字元串第一個字元開始,‘3’表示截取後得到的字元串長度為3個字元。 這是 ...
  • 基本上每個跟資料庫打交道的程式員(當然也可能是你同事)都會碰一個問題,MySQL誤操作後如何快速回滾?比如,delete一張表,忘加限制條件,整張表沒了。假如這還是線上環境核心業務數據,那這事就鬧大了。誤操作後,能快速回滾數據是非常重要的。 binlog2sql快速回滾 首先,確認你的MySQL s ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...