跳到主要內容
Open In ColabOpen on GitHub

PipelineAI

PipelineAI 讓您在雲端大規模運行 ML 模型。它還提供對多個 LLM 模型的 API 訪問權限。

本筆記本介紹如何將 Langchain 與 PipelineAI 一起使用。

PipelineAI 範例

此範例展示了 PipelineAI 如何與 LangChain 集成,它由 PipelineAI 創建。

設定

使用 `PipelineAI` API(又名 `Pipeline Cloud`)需要 `pipeline-ai` 函式庫。使用 `pip install pipeline-ai` 安裝 `pipeline-ai`。

# Install the package
%pip install --upgrade --quiet pipeline-ai

範例

導入

import os

from langchain_community.llms import PipelineAI
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import PromptTemplate

設定環境 API 金鑰

請務必從 PipelineAI 獲取您的 API 金鑰。查看雲端快速入門指南。您將獲得 30 天的免費試用,以及 10 小時的無伺服器 GPU 計算時間,用於測試不同的模型。

os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"

建立 PipelineAI 實例

在實例化 PipelineAI 時,您需要指定要使用的管道的 ID 或標籤,例如 pipeline_key = "public/gpt-j:base"。然後,您可以選擇傳遞其他特定於管道的關鍵字引數。

llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})

建立提示範本

我們將為問答建立一個提示範本。

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

啟動 LLMChain

llm_chain = prompt | llm | StrOutputParser()

執行 LLMChain

提供一個問題並執行 LLMChain。

question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

llm_chain.invoke(question)
  • LLM 概念指南
  • LLM 操作指南

此頁面是否有幫助?