今天在技術群里,石頭哥向大家提了個問題:"如何在一個以System身份運行的.NET程式(Windows Services)中,以其它活動的用戶身份啟動可互動式進程(桌面應用程式、控制台程式、等帶有UI和互動式體驗的程式)"? 我以前有過類似的需求,是在GitLab流水線中運行帶有UI的自動化測試程 ...
在本地完成 Phi-3 模型的部署之後,即可在本地擁有一個小語言模型。本文將告訴大家如何將本地的 Phi-3 模型與 SemanticKernel 進行對接,讓 SemanticKernel 使用本地小語言模型提供的能力
在我大部分的博客裡面,都是使用 AzureAI 和 SemanticKernel 對接,所有的數據都需要發送到遠端處理。這在離線的情況下比較不友好,在上一篇博客和大家介紹瞭如何基於 DirectML 控制台運行 Phi-3 模型。本文將在上一篇博客的基礎上,告訴大家如何將本地的 Phi-3 模型與 SemanticKernel 進行對接
依然是和上一篇博客一樣準備好 Phi-3 模型的文件夾,本文這裡我放在 C:\lindexi\Phi3\directml-int4-awq-block-128
路徑下。如果大家下載時拉取不下來 https://huggingface.co/microsoft/Phi-3-mini-4k-instruct-onnx/tree/main?clone=true 倉庫,可以發送郵件向我要,我將通過網盤分享給大家
準備好模型的下載工作之後,接下來咱將新建一個控制台項目用於演示
編輯控制台的 csproj 項目文件,修改為以下代碼用於安裝所需的 NuGet 包
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.ML.OnnxRuntimeGenAI.DirectML" Version="0.2.0-rc7" />
<PackageReference Include="feiyun0112.SemanticKernel.Connectors.OnnxRuntimeGenAI.DirectML" Version="1.0.0" />
<PackageReference Include="Microsoft.Extensions.Configuration.UserSecrets" Version="8.0.0" />
<PackageReference Include="Microsoft.Extensions.Logging" Version="8.0.0" />
<PackageReference Include="Microsoft.Extensions.Logging.Console" Version="8.0.0" />
<PackageReference Include="Microsoft.SemanticKernel" Version="1.13.0" />
</ItemGroup>
</Project>
這裡的 feiyun0112.SemanticKernel.Connectors.OnnxRuntimeGenAI.DirectML
是可選的,因為最後咱將會自己編寫所有對接代碼,不需要使用大佬寫好的現有組件
先給大家演示使用 feiyun0112.SemanticKernel.Connectors.OnnxRuntimeGenAI.DirectML
提供的簡單版本。此版本代碼大量從 https://github.com/microsoft/Phi-3CookBook/blob/0a167c4b8045c1b9abb84fc63ca483ae614a88a5/md/07.Labs/Csharp/src/LabsPhi302/Program.cs 抄的,感謝 Bruno Capuano 大佬
定義或獲取本地模型所在的文件夾
var modelPath = @"C:\lindexi\Phi3\directml-int4-awq-block-128";
創建 SemanticKernel 構建器時調用 feiyun0112.SemanticKernel.Connectors.OnnxRuntimeGenAI.DirectML
庫提供的 AddOnnxRuntimeGenAIChatCompletion 擴展方法,如以下代碼
// create kernel
var builder = Kernel.CreateBuilder();
builder.AddOnnxRuntimeGenAIChatCompletion(modelPath);
如此即可完成連接邏輯,將本地 Phi-3 模型和 SemanticKernel 進行連接就此完成。接下來的代碼就是和原來使用 SemanticKernel 的一樣。這一點也可以看到 SemanticKernel 的設計還是很好的,非常方便進行模型的切換
嘗試使用 SemanticKernel 做一個簡單的問答機
var kernel = builder.Build();
// create chat
var chat = kernel.GetRequiredService<IChatCompletionService>();
var history = new ChatHistory();
// run chat
while (true)
{
Console.Write("Q: ");
var userQ = Console.ReadLine();
if (string.IsNullOrEmpty(userQ))
{
break;
}
history.AddUserMessage(userQ);
Console.Write($"Phi3: ");
var response = "";
var result = chat.GetStreamingChatMessageContentsAsync(history);
await foreach (var message in result)
{
Console.Write(message.Content);
response += message.Content;
}
history.AddAssistantMessage(response);
Console.WriteLine("");
}
嘗試運行代碼,和自己本地 Phi-3 模型聊聊天
以上為使用 feiyun0112.SemanticKernel.Connectors.OnnxRuntimeGenAI.DirectML
提供的連接,接下來嘗試自己來實現與 SemanticKernel 的對接代碼
在 SemanticKernel 裡面定義了 IChatCompletionService 介面,以上代碼的 GetStreamingChatMessageContentsAsync
方法功能核心就是調用 IChatCompletionService 介面提供的 GetStreamingChatMessageContentsAsync 方法
熟悉依賴註入的伙伴也許一下就看出來了,只需要註入 IChatCompletionService 介面的實現即可。在註入之前,還需要咱自己定義一個繼承 IChatCompletionService 的類型,才能創建此類型進行註入
如以下代碼,定義繼承 IChatCompletionService 的 Phi3ChatCompletionService 類型
class Phi3ChatCompletionService : IChatCompletionService
{
...
}
接著實現介面要求的方法,本文這裡只用到 GetStreamingChatMessageContentsAsync 方法,於是就先只實現此方法
根據上一篇博客可以瞭解到 Phi-3 的初始化方法,先放在 Phi3ChatCompletionService 的構造函數進行初始化,代碼如下
class Phi3ChatCompletionService : IChatCompletionService
{
public Phi3ChatCompletionService(string modelPath)
{
var model = new Model(modelPath);
var tokenizer = new Tokenizer(model);
Model = model;
Tokenizer = tokenizer;
}
public IReadOnlyDictionary<string, object?> Attributes { get; set; } = new Dictionary<string, object?>();
public Model Model { get; }
public Tokenizer Tokenizer { get; }
... // 忽略其他代碼
}
定義 GetStreamingChatMessageContentsAsync 方法代碼如下
class Phi3ChatCompletionService : IChatCompletionService
{
... // 忽略其他代碼
public async IAsyncEnumerable<StreamingChatMessageContent> GetStreamingChatMessageContentsAsync(ChatHistory chatHistory,
PromptExecutionSettings? executionSettings = null, Kernel? kernel = null,
CancellationToken cancellationToken = new CancellationToken())
{
... // 忽略其他代碼
}
}
這裡傳入的是 ChatHistory 類型,咱需要進行一些提示詞的轉換才能讓 Phi-3 更開森,轉換代碼如下
var stringBuilder = new StringBuilder();
foreach (ChatMessageContent chatMessageContent in chatHistory)
{
stringBuilder.Append($"<|{chatMessageContent.Role}|>\n{chatMessageContent.Content}");
}
stringBuilder.Append("<|end|>\n<|assistant|>");
var prompt = stringBuilder.ToString();
完成之後,即可構建輸入,以及調用 ComputeLogits 等方法,代碼如下
public async IAsyncEnumerable<StreamingChatMessageContent> GetStreamingChatMessageContentsAsync(ChatHistory chatHistory,
PromptExecutionSettings? executionSettings = null, Kernel? kernel = null,
CancellationToken cancellationToken = new CancellationToken())
{
var stringBuilder = new StringBuilder();
foreach (ChatMessageContent chatMessageContent in chatHistory)
{
stringBuilder.Append($"<|{chatMessageContent.Role}|>\n{chatMessageContent.Content}");
}
stringBuilder.Append("<|end|>\n<|assistant|>");
var prompt = stringBuilder.ToString();
var generatorParams = new GeneratorParams(Model);
var sequences = Tokenizer.Encode(prompt);
generatorParams.SetSearchOption("max_length", 1024);
generatorParams.SetInputSequences(sequences);
generatorParams.TryGraphCaptureWithMaxBatchSize(1);
using var tokenizerStream = Tokenizer.CreateStream();
using var generator = new Generator(Model, generatorParams);
while (!generator.IsDone())
{
var result = await Task.Run(() =>
{
generator.ComputeLogits();
generator.GenerateNextToken();
// 這裡的 tokenSequences 就是在輸入的 sequences 後面添加 Token 內容
// 取最後一個進行解碼為文本
var lastToken = generator.GetSequence(0)[^1];
var decodeText = tokenizerStream.Decode(lastToken);
// 有些時候這個 decodeText 是一個空文本,有些時候是一個單詞
// 空文本的可能原因是需要多個 token 才能組成一個單詞
// 在 tokenizerStream 底層已經處理了這樣的情況,會在需要多個 Token 才能組成一個單詞的情況下,自動合併,在多個 Token 中間的 Token 都返回空字元串,最後一個 Token 才返回組成的單詞
if (!string.IsNullOrEmpty(decodeText))
{
return decodeText;
}
return null;
});
if (!string.IsNullOrEmpty(result))
{
yield return new StreamingChatMessageContent(AuthorRole.Assistant, result);
}
}
}
如此即可完成對接的核心代碼實現,接下來只需要將 Phi3ChatCompletionService 註入即可,代碼如下
var modelPath = @"C:\lindexi\Phi3\directml-int4-awq-block-128";
// create kernel
var builder = Kernel.CreateBuilder();
builder.Services.AddSingleton<IChatCompletionService>(new Phi3ChatCompletionService(modelPath));
這就是完全自己實現將本地 Phi-3 模型與 SemanticKernel 進行對接的方法了,嘗試運行一下項目,或者使用以下方法拉取我的代碼更改掉模型文件夾,試試運行效果
本文代碼放在 github 和 gitee 上,可以使用如下命令行拉取代碼
先創建一個空文件夾,接著使用命令行 cd 命令進入此空文件夾,在命令行裡面輸入以下代碼,即可獲取到本文的代碼
git init
git remote add origin https://gitee.com/lindexi/lindexi_gd.git
git pull origin 39a65e0e6703241bdab0a836e84532bddd4385c7
以上使用的是 gitee 的源,如果 gitee 不能訪問,請替換為 github 的源。請在命令行繼續輸入以下代碼,將 gitee 源換成 github 源進行拉取代碼
git remote remove origin
git remote add origin https://github.com/lindexi/lindexi_gd.git
git pull origin 39a65e0e6703241bdab0a836e84532bddd4385c7
獲取代碼之後,進入 SemanticKernelSamples/BemjawhufawJairkihawyawkerene 文件夾,即可獲取到源代碼
博客園博客只做備份,博客發佈就不再更新,如果想看最新博客,請訪問 https://blog.lindexi.com/
如圖片看不見,請在瀏覽器開啟不安全http內容相容
本作品採用知識共用署名-非商業性使用-相同方式共用 4.0 國際許可協議進行許可。歡迎轉載、使用、重新發佈,但務必保留文章署名[林德熙](https://www.cnblogs.com/lindexi)(包含鏈接:https://www.cnblogs.com/lindexi ),不得用於商業目的,基於本文修改後的作品務必以相同的許可發佈。如有任何疑問,請與我[聯繫](mailto:[email protected])。