vLLM Chat
vLLM 可以部署為模仿 OpenAI API 協定的伺服器。這使得 vLLM 可以作為使用 OpenAI API 的應用程式的直接替換。此伺服器可以使用與 OpenAI API 相同的格式進行查詢。
總覽
這將幫助您開始使用 vLLM 聊天模型,它利用了 langchain-openai
套件。有關所有 ChatOpenAI
功能和配置的詳細文件,請前往 API 參考。
整合細節
類別 | 套件 | 本地 | 可序列化 | JS 支援 | 套件下載次數 | 套件最新版本 |
---|---|---|---|---|---|---|
ChatOpenAI | langchain_openai | ✅ | beta | ❌ |
模型功能
特定模型功能(例如工具調用、對多模態輸入的支援、對 token 層級串流的支援等)將取決於託管模型。
設定
請參閱 vLLM 文件 此處。
若要透過 LangChain 存取 vLLM 模型,您需要安裝 langchain-openai
整合套件。
憑證
身份驗證將取決於推論伺服器的具體細節。
如果您想要取得模型調用的自動追蹤,您也可以設定您的 LangSmith API 金鑰,方法是取消註解下方內容
# os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
安裝
LangChain vLLM 整合可以透過 langchain-openai
套件存取
%pip install -qU langchain-openai
實例化
現在我們可以實例化我們的模型物件並產生聊天完成
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_core.prompts.chat import (
ChatPromptTemplate,
HumanMessagePromptTemplate,
SystemMessagePromptTemplate,
)
from langchain_openai import ChatOpenAI
API 參考:HumanMessage | SystemMessage | ChatPromptTemplate | HumanMessagePromptTemplate | SystemMessagePromptTemplate | ChatOpenAI
inference_server_url = "https://#:8000/v1"
llm = ChatOpenAI(
model="mosaicml/mpt-7b",
openai_api_key="EMPTY",
openai_api_base=inference_server_url,
max_tokens=5,
temperature=0,
)
調用
messages = [
SystemMessage(
content="You are a helpful assistant that translates English to Italian."
),
HumanMessage(
content="Translate the following sentence from English to Italian: I love programming."
),
]
llm.invoke(messages)
AIMessage(content=' Io amo programmare', additional_kwargs={}, example=False)
鏈接
我們可以像這樣使用提示範本鏈接我們的模型
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate(
[
(
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
),
("human", "{input}"),
]
)
chain = prompt | llm
chain.invoke(
{
"input_language": "English",
"output_language": "German",
"input": "I love programming.",
}
)
API 參考:ChatPromptTemplate
API 參考
有關透過 langchain-openai
公開的所有功能和配置的詳細文件,請前往 API 參考:https://langchain-python.dev.org.tw/api_reference/openai/chat_models/langchain_openai.chat_models.base.ChatOpenAI.html
也請參考 vLLM 文件。