跳至主要內容

LocalAI

資訊

langchain-localai 是一個用於 LocalAI 的第三方整合套件。它提供了一種在 Langchain 中使用 LocalAI 服務的簡單方法。

原始碼可在 Github 上取得

讓我們載入 LocalAI Embedding 類別。為了使用 LocalAI Embedding 類別,您需要將 LocalAI 服務託管在某處並設定嵌入模型。請參閱 https://localai.io/basics/getting_started/index.htmlhttps://localai.io/features/embeddings/index.html 上的文件。

%pip install -U langchain-localai
from langchain_localai import LocalAIEmbeddings
embeddings = LocalAIEmbeddings(
openai_api_base="https://127.0.0.1:8080", model="embedding-model-name"
)
text = "This is a test document."
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])

讓我們載入具有第一代模型的 LocalAI Embedding 類別 (例如 text-search-ada-doc-001/text-search-ada-query-001)。注意:不建議使用這些模型 - 請參閱 此處

from langchain_community.embeddings import LocalAIEmbeddings
API 參考:LocalAIEmbeddings
embeddings = LocalAIEmbeddings(
openai_api_base="https://127.0.0.1:8080", model="embedding-model-name"
)
text = "This is a test document."
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])
import os

# if you are behind an explicit proxy, you can use the OPENAI_PROXY environment variable to pass through
os.environ["OPENAI_PROXY"] = "http://proxy.yourcompany.com:8080"

此頁面是否有幫助?