如何取得日誌機率
某些 聊天模型 可以配置為傳回 Token 層級的日誌機率,表示給定 Token 的可能性。本指南將逐步說明如何在 LangChain 中取得此資訊。
OpenAI
安裝 LangChain x OpenAI 套件並設定您的 API 金鑰
%pip install -qU langchain-openai
import getpass
import os
if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass()
為了讓 OpenAI API 傳回日誌機率,我們需要配置 logprobs=True
參數。然後,日誌機率會包含在每個輸出 AIMessage
中,作為 response_metadata
的一部分
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-4o-mini").bind(logprobs=True)
msg = llm.invoke(("human", "how are you today"))
msg.response_metadata["logprobs"]["content"][:5]
API 參考:ChatOpenAI
[{'token': 'I', 'bytes': [73], 'logprob': -0.26341408, 'top_logprobs': []},
{'token': "'m",
'bytes': [39, 109],
'logprob': -0.48584133,
'top_logprobs': []},
{'token': ' just',
'bytes': [32, 106, 117, 115, 116],
'logprob': -0.23484154,
'top_logprobs': []},
{'token': ' a',
'bytes': [32, 97],
'logprob': -0.0018291725,
'top_logprobs': []},
{'token': ' computer',
'bytes': [32, 99, 111, 109, 112, 117, 116, 101, 114],
'logprob': -0.052299336,
'top_logprobs': []}]
並且也是串流訊息區塊的一部分
ct = 0
full = None
for chunk in llm.stream(("human", "how are you today")):
if ct < 5:
full = chunk if full is None else full + chunk
if "logprobs" in full.response_metadata:
print(full.response_metadata["logprobs"]["content"])
else:
break
ct += 1
[]
[{'token': 'I', 'bytes': [73], 'logprob': -0.26593843, 'top_logprobs': []}]
[{'token': 'I', 'bytes': [73], 'logprob': -0.26593843, 'top_logprobs': []}, {'token': "'m", 'bytes': [39, 109], 'logprob': -0.3238896, 'top_logprobs': []}]
[{'token': 'I', 'bytes': [73], 'logprob': -0.26593843, 'top_logprobs': []}, {'token': "'m", 'bytes': [39, 109], 'logprob': -0.3238896, 'top_logprobs': []}, {'token': ' just', 'bytes': [32, 106, 117, 115, 116], 'logprob': -0.23778509, 'top_logprobs': []}]
[{'token': 'I', 'bytes': [73], 'logprob': -0.26593843, 'top_logprobs': []}, {'token': "'m", 'bytes': [39, 109], 'logprob': -0.3238896, 'top_logprobs': []}, {'token': ' just', 'bytes': [32, 106, 117, 115, 116], 'logprob': -0.23778509, 'top_logprobs': []}, {'token': ' a', 'bytes': [32, 97], 'logprob': -0.0022134194, 'top_logprobs': []}]
下一步
您現在已經學會如何在 LangChain 中從 OpenAI 模型取得日誌機率。
接下來,查看本節中關於聊天模型的其他操作指南,例如如何讓模型傳回結構化輸出或如何追蹤 Token 使用量。