本文介紹瞭如何快速搭建一個基於大型語言模型(LLM)的混元聊天應用。強調了開發速度的重要性,並指出了使用Streamlit這一工具的優勢,特別是對於不熟悉前端代碼的開發者來說,Streamlit提供了一種快速構建聊天應用的方法。 ...
今天,我們將迅速著手搭建一個高效且富有創意的混元聊天應用,其核心理念可以用一個字來概括——快。在這個快節奏的時代,構建一個基礎的LLM(Large Language Model,大型語言模型)聊天應用並不需要耗費太多時間。市面上充斥著各種功能強大的大型語言模型,我們可以根據項目需求靈活選擇,而今天的目標並非深入探討這些模型的技術細節,而是將重點放在如何快速上手。
Streamlit這一強大的工具,它能夠讓我們以最快速度搭建起一個具備流式打字機效果的聊天應用。對於那些和我一樣,對前端代碼望而卻步的開發者來說,Streamlit無疑是一個福音。
本次實操,我們將不會過多地糾纏於理論知識,而是將重點放在實戰操作上。
開始開發
依賴環境
開發之前,請確保你已經配置好了必要的開發環境,以下是你需要準備的一系列環境和工具,以確保開發過程的順利進行:
Python環境:Python 3.9
騰訊雲API服務:從騰訊雲控制台開通混元API並且獲取騰訊雲的SecretID、SecretKey
依賴包安裝:
pip install --upgrade tencentcloud-sdk-python
pip install streamlit
如果你對Streamlit還不太熟悉,安裝完成後,你可以通過執行streamlit hello
或者python -m streamlit hello
啟動一下入門實例。如果你希望對Streamlit有更深入的瞭解,我強烈建議你訪問其官方文檔。官方文檔提供了詳盡的指南、教程和API參考。
簡易流程
首先,請查閱騰訊雲官方簡易流程,然後,一旦您成功獲取相關信息的申請,填入並檢查輸出是否正常。
import os
from tencentcloud.common import credential
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.cvm.v20170312 import cvm_client, models
try:
# 為了保護密鑰安全,建議將密鑰設置在環境變數中或者配置文件中,請參考本文憑證管理章節。
# 硬編碼密鑰到代碼中有可能隨代碼泄露而暴露,有安全隱患,並不推薦。
# cred = credential.Credential("secretId", "secretKey")
cred = credential.Credential(
os.environ.get("TENCENTCLOUD_SECRET_ID"),
os.environ.get("TENCENTCLOUD_SECRET_KEY"))
client = cvm_client.CvmClient(cred, "ap-shanghai")
req = models.DescribeInstancesRequest()
resp = client.DescribeInstances(req)
print(resp.to_json_string())
except TencentCloudSDKException as err:
print(err)
如果輸出結果呈現是這樣的,這便表明所得信息基本正確的,接下來我們便可順利進行後續的開發工作。
"TotalCount": 0, "InstanceSet": [], "RequestId": "714808e9-684a-4714-96f1-2a9fe77b6e55"
接下來,讓我們深入瞭解Streamlit是如何構建基礎的LLM(大型語言模型)聊天應用的,一起查看一下他們的官方演示代碼吧。
import streamlit as st
import random
import time
# Streamed response emulator
def response_generator():
response = random.choice(
[
"Hello there! How can I assist you today?",
"Hi, human! Is there anything I can help you with?",
"Do you need help?",
]
)
for word in response.split():
yield word + " "
time.sleep(0.05)
st.title("Simple chat")
# Initialize chat history
if "messages" not in st.session_state:
st.session_state.messages = []
# Display chat messages from history on app rerun
for message in st.session_state.messages:
with st.chat_message(message["role"]):
st.markdown(message["content"])
# Accept user input
if prompt := st.chat_input("What is up?"):
# Add user message to chat history
st.session_state.messages.append({"role": "user", "content": prompt})
# Display user message in chat message container
with st.chat_message("user"):
st.markdown(prompt)
# Display assistant response in chat message container
with st.chat_message("assistant"):
response = st.write_stream(response_generator())
# Add assistant response to chat history
st.session_state.messages.append({"role": "assistant", "content": response})
切記,在運行Streamlit時,不要使用python命令,而應該使用streamlit run [your_script.py],否則可能會持續遇到錯誤提示。
觀察了代碼後,可以看出基本框架已經建立好了,接下來的步驟就是替換請求和響應部分。
關於請求和響應的實例,騰訊官方也提供了相關內容。你可以查看以下鏈接以獲取更多信息:
經過5分鐘的修改和代碼改進,最終成功地實現了可運行的版本。
還是一樣的規矩,最終代碼如下:
import json
import os
import streamlit as st
import random
import time
from tencentcloud.common import credential
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.common.profile.client_profile import ClientProfile
from tencentcloud.hunyuan.v20230901 import hunyuan_client, models
st.title("混元小助手")
os.environ['id'] = '******'
os.environ['key'] = '******'
# 實例化一個認證對象,入參需要傳入騰訊雲賬戶secretId,secretKey
cred = credential.Credential(
os.environ.get("id"),
os.environ.get("key"))
cpf = ClientProfile()
# 預先建立連接可以降低訪問延遲
cpf.httpProfile.pre_conn_pool_size = 3
client = hunyuan_client.HunyuanClient(cred, "ap-beijing", cpf)
req = models.ChatStdRequest()
# Streamed response emulator
def response_generator():
# msg = models.Message()
# msg.Role = "user"
# msg.Content = content
req.Messages = []
for m in st.session_state.messages:
msg = models.Message()
msg.Role = m["role"]
msg.Content = m["content"]
req.Messages.append(msg)
resp = client.ChatStd(req)
for event in resp:
data = json.loads(event['data'])
for choice in data['Choices']:
yield choice['Delta']['Content'] + ""
# Initialize chat history
if "messages" not in st.session_state:
st.session_state.messages = []
# Display chat messages from history on app rerun
for message in st.session_state.messages:
with st.chat_message(message["role"]):
st.markdown(message["content"])
# Accept user input
if prompt := st.chat_input("有什麼需要幫助的?"):
# Add user message to chat history
st.session_state.messages.append({"role": "user", "content": prompt})
# Display user message in chat message container
with st.chat_message("user"):
st.markdown(prompt)
# Display assistant response in chat message container
with st.chat_message("assistant"):
response = st.write_stream(response_generator())
# Add assistant response to chat history
st.session_state.messages.append({"role": "assistant", "content": response})
在這裡需要註意一下,當使用streamlit進行流式回答時,你無需手動返迴文本數據,只需在方法內部使用yield關鍵字,並註明本次返回的內容即可。
演示視頻看下吧:
總結
本文介紹瞭如何快速搭建一個基於大型語言模型(LLM)的混元聊天應用。強調了開發速度的重要性,並指出了使用Streamlit這一工具的優勢,特別是對於不熟悉前端代碼的開發者來說,Streamlit提供了一種快速構建聊天應用的方法。
如果你對開發感興趣,市面上確實提供了許多大型模型供你選擇。即使簡單的聊天應用並不具備太多技術性,但你可以利用這些基礎框架,不斷添加自己所需的任何組件。這需要開拓思維,挖掘創意,讓你的應用更加豐富多彩。