OpenLLM
OpenLLM 讓開發人員只需單一指令,即可將任何開放原始碼 LLM 作為與 OpenAI 相容的 API 端點執行。
- 🔬 為快速和生產用途而建構
- 🚂 支援 llama3、qwen2、gemma 等,以及許多量化版本 完整列表
- ⛓️ 與 OpenAI 相容的 API
- 💬 內建類似 ChatGPT 的 UI
- 🔥 透過最先進的推論後端加速 LLM 解碼
- 🌥️ 適用於企業級雲端部署 (Kubernetes、Docker 和 BentoCloud)
安裝與設定
透過 PyPI 安裝 OpenLLM 套件
pip install openllm
LLM
OpenLLM 支援各種開放原始碼 LLM,以及為使用者自己的微調 LLM 提供服務。使用 openllm model
命令查看所有可用的模型,這些模型都已針對 OpenLLM 進行預先最佳化。
封裝器
有一個 OpenLLM 封裝器,支援與執行中的 OpenLLM 伺服器互動
from langchain_community.llms import OpenLLM
API 參考:OpenLLM
OpenLLM 伺服器的封裝器
此封裝器支援與 OpenLLM 與 OpenAI 相容的端點互動。
若要執行模型,請執行
openllm hello
封裝器用法
from langchain_community.llms import OpenLLM
llm = OpenLLM(base_url="https://127.0.0.1:3000/v1", api_key="na")
llm("What is the difference between a duck and a goose? And why there are so many Goose in Canada?")
API 參考:OpenLLM
用法
如需 OpenLLM 封裝器的更詳細逐步說明,請參閱範例筆記本