跳到主要內容
Open In ColabOpen on GitHub

ChatDeepSeek

這將幫助您開始使用 DeepSeek 託管的聊天模型。 有關所有 ChatDeepSeek 功能和配置的詳細文檔,請參閱 API 參考文檔

提示

DeepSeek 的模型是開源的,也可以在本地運行(例如在 Ollama 中)或在其他推理供應商(例如 FireworksTogether)上運行。

概述

整合詳情

類別套件本地可序列化JS 支援套件下載次數最新套件版本
ChatDeepSeeklangchain-deepseekbetaPyPI - DownloadsPyPI - Version

模型功能

工具呼叫結構化輸出JSON 模式圖像輸入音訊輸入影片輸入Token 級別串流原生非同步Token 使用量Logprobs
注意

DeepSeek-R1(通過 model="deepseek-reasoner" 指定)不支持工具呼叫或結構化輸出。 DeepSeek-V3(通過 model="deepseek-chat" 指定)支持這些功能。

設定

要訪問 DeepSeek 模型,您需要創建一個 DeepSeek 帳戶,獲取 API 密鑰,並安裝 langchain-deepseek 整合套件。

憑證

前往 DeepSeek 的 API 金鑰頁面 註冊 DeepSeek 並生成 API 金鑰。 完成後,設定 DEEPSEEK_API_KEY 環境變數

import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter your DeepSeek API key: ")

如果您想自動追蹤模型調用,您還可以通過取消註釋下方內容來設定您的 LangSmith API 金鑰

# os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安裝

LangChain DeepSeek 整合位於 langchain-deepseek 套件中

%pip install -qU langchain-deepseek

實例化

現在我們可以實例化我們的模型對象並生成聊天完成

from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
model="deepseek-chat",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
# other params...
)
API 參考文檔:ChatDeepSeek

調用

messages = [
(
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
),
("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg.content

鏈接

我們可以像這樣使用提示模板鏈接我們的模型

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate(
[
(
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
),
("human", "{input}"),
]
)

chain = prompt | llm
chain.invoke(
{
"input_language": "English",
"output_language": "German",
"input": "I love programming.",
}
)
API 參考文檔:ChatPromptTemplate

API 參考文檔

有關所有 ChatDeepSeek 功能和配置的詳細文檔,請參閱 API 參考文檔


此頁面是否有幫助?