Ollama
Ollama 允许您在本地运行开源的大型语言模型,例如 LLaMA2。
Ollama
将模型权重、配置和数据打包成一个由 Modelfile 定义的单一包。 它优化了设置和配置细节,包括 GPU 使用。 有关支持的模型和模型变体的完整列表,请参见 Ollama 模型库。
有关如何将 Ollama
与 LangChain 一起使用的更多详细信息,请参见 本指南。
安装和设置
按照 这些说明 设置并运行本地 Ollama 实例。
LLM
from langchain_community.llms import Ollama
查看笔记本示例 这里。
聊天模型
Chat Ollama
from langchain_community.chat_models import ChatOllama
请查看笔记本示例 这里。
Ollama 函数
from langchain_experimental.llms.ollama_functions import OllamaFunctions
请参阅笔记本示例 这里。
嵌入模型
from langchain_community.embeddings import OllamaEmbeddings
请参阅笔记本示例 这里。