MLX 本地管線
MLX 模型可以透過 MLXPipeline
類別在本機執行。
MLX 社群託管超過 150 個模型,所有模型皆為開放原始碼,並在 Hugging Face Model Hub 線上平台公開提供,人們可以在此輕鬆協作並共同建構 ML。
這些可以從 LangChain 呼叫,透過此本地管線包裝器,或透過 MlXPipeline 類別呼叫其託管的推論端點。如需 mlx 的更多資訊,請參閱範例儲存庫筆記本。
若要使用,您應該安裝 mlx-lm
python 套件,以及 transformers。您也可以安裝 huggingface_hub
。
%pip install --upgrade --quiet mlx-lm transformers huggingface_hub
模型載入
可以透過使用 from_model_id
方法指定模型參數來載入模型。
from langchain_community.llms.mlx_pipeline import MLXPipeline
pipe = MLXPipeline.from_model_id(
"mlx-community/quantized-gemma-2b-it",
pipeline_kwargs={"max_tokens": 10, "temp": 0.1},
)
API 參考:MLXPipeline
也可以透過直接傳入現有的 transformers
管線來載入它們
from mlx_lm import load
model, tokenizer = load("mlx-community/quantized-gemma-2b-it")
pipe = MLXPipeline(model=model, tokenizer=tokenizer)
建立鏈
將模型載入記憶體後,您可以將其與提示詞組合以形成鏈。
from langchain_core.prompts import PromptTemplate
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)
chain = prompt | pipe
question = "What is electroencephalography?"
print(chain.invoke({"question": question}))
API 參考:PromptTemplate