現如今大模型遍地都是,OpenAI的ChatGPT,Meta的Llama(羊駝),Anthropic的Claude,Microsoft的Phi3,Google的Gemini...... 怎麼都是國外的???嗯,國內也有,比如騰訊有混元大模型,位元組跳動有豆包大模型等等。 不過這不是今天的重點,這寫國內 ...
現如今大模型遍地都是,OpenAI的ChatGPT,Meta的Llama(羊駝),Anthropic的Claude,Microsoft的Phi3,Google的Gemini......
怎麼都是國外的???嗯,國內也有,比如騰訊有混元大模型,位元組跳動有豆包大模型等等。
不過這不是今天的重點,這寫國內外的大模型都有一個特點,就是只有Web、安卓、Ios客戶端,感覺怎麼沒有我們C#桌面客戶端的一席之地?,這也太離離原上譜了。本著公平公正的原則,我調研了一下國內外的資料,瘋狂查找一番發現,確實資料有點少。不過好在有一個國外的作者,開源了一個OllamaSharp,這個庫還在活躍更新,他可以讓C#開發者輕鬆調用各種大預言模型,目前可以查到支持的有100個大模型。這下.net開發者有福音了。
不過OllamaSharp也只是一個封裝庫,他背後的核心其實是Ollama,一個集成了各種大語言模型的開源庫。然後Ollama背後才是各種大預言模型。
下麵我就演示一下如何在C#客戶端調用Ollama吧。
1. 安裝Ollama
打開下載Ollama鏈接,你將下載一個200多MB的安裝包,下載完成直接安裝。
安裝完成後會彈出一個命令行,我們首先選擇一個大模型,併在命令行安裝一下。
比如第一個,我們就輸入ollama run llama3
,參數越多,對你的機器配置要求就越高,同時帶來的收益就是精度更高,回答更準確等。不過一個80億的大模型,覆蓋我們99%的場景了,而且配置需求還好。我一個3060顯卡,輸出token的速度不亞於網頁版。
註意:70億的模型起步記憶體8GB,130億的需要16GB,330億需要32GB。
運行完安裝命令,你就可以直接在命令行中跟大模型對話了【這些終於可以離線對話了,是的,離線!!!終於不用掛各種梯子去外面忍受龜速了,還有封號的風險】
下麵演示一下3060顯卡的是速度,錄屏沒有加速呢。
那麼這不是我們的目的,我們需要在C#中集成他,這樣就可以寫一個大模型聊天客戶端了,或者用在特定的領域,比如看論文、寫代碼等領域。
2. C#調用Ollama
Nuget搜索OllamaSharp,安裝。
註意埠是11434
private async void Ask()
{
var uri = new Uri("http://localhost:11434");
var ollama = new OllamaApiClient(uri);
ollama.SelectedModel = "llama3";
var prompt = "WPF和Winform的區別是啥";
//1.
//ConversationContext context = null;
//context = await ollama.StreamCompletion(prompt, context, Callback);
//2.
ConversationContext context = null;
await foreach (var stream in ollama.StreamCompletion(prompt, context))
{
Debug.Write(stream.Response);
}
}
private void Callback(GenerateCompletionResponseStream? stream)
{
Debug.Write(stream.Response);
}
這樣我們可以在VS的輸出欄裡面看到實時回答了。如果你想做的酷一點,可以在界面上貼一個AI機器人的動畫,然後給輸出的文本框不斷Append文字,應該就可以實現和網頁端一樣的打字效果了/。
3. One more thing
這樣體驗一下,感覺似乎也並沒有特別之處。如果你這樣想,那就too young too simple啦。
現在鑒於這些大模型都是下載下來運行在本地的,那麼離線和數據保密就是他的一大優點了。有很多客戶的機器出於商業機密或者其他原因,不能將設備接入互聯網,因此本地運行大模型尤為重要。或者區域網部署也可。
其次,還可以和多模態大模型llava等交流圖片,比如我上傳一張絕命毒師的圖片,他就立馬識別出來,並給一段文字描述。同樣的我們也可以在C#裡面實現上傳。
作者:貓叔Vincent 本文版權歸作者和博客園共有,歡迎轉載,但未經作者同意必須保留此段聲明,且在文章頁面明顯位置給出原文連接,否則保留追究法律責任的權利。