跳到主要內容

PipelineAI

PipelineAI 允許您在雲端大規模運行您的 ML 模型。它還提供對 多個 LLM 模型的 API 存取權。

本筆記型電腦將介紹如何將 Langchain 與 PipelineAI 一起使用。

PipelineAI 範例

此範例展示了 PipelineAI 如何與 LangChain 集成,它是由 PipelineAI 創建的。

設定

需要 pipeline-ai 庫才能使用 PipelineAI API,又名 Pipeline Cloud。 使用 pip install pipeline-ai 安裝 pipeline-ai

# Install the package
%pip install --upgrade --quiet pipeline-ai

範例

匯入

import os

from langchain_community.llms import PipelineAI
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import PromptTemplate

設定環境 API 金鑰

請務必從 PipelineAI 取得您的 API 金鑰。 請參閱雲端快速入門指南。 您將獲得 30 天的免費試用期,以及 10 小時的無伺服器 GPU 計算時間,用於測試不同的模型。

os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"

建立 PipelineAI 實例

在實例化 PipelineAI 時,您需要指定要使用的 Pipeline 的 ID 或標籤,例如pipeline_key = "public/gpt-j:base"。 然後,您可以選擇傳遞額外的、特定於 Pipeline 的關鍵字引數。

llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})

建立提示範本

我們將為問答建立一個提示範本。

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

啟動 LLMChain

llm_chain = prompt | llm | StrOutputParser()

執行 LLMChain

提供一個問題並執行 LLMChain。

question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

llm_chain.invoke(question)

此頁面是否有幫助?