LangChain 专题6 可运行接口
可运行接口(Runnable interface)是处理 LangChain 组件的基础,它在许多组件中实现,如语言模型、输出解析器、检索器、编译的 LangGraph 图等。
本文介绍了 Runnable 接口的主要概念和方法,它允许开发者在一致且可预测的方式下与 LangChain 组件交互。
LangChain 专题7 输出解析器
此处所指的信息是解析器,它们从模型获取文本输出尝试将其解析为一个更结构化的表示。 越来越多的模型支持函数(或工具)调用,此类调用会自动处理这一问题。 建议使用函数/工具调用而不是输出解析。
输出解析器(Output parser)负责获取模型的输出并将其转换为更适合下游任务的格式。 当您使用 LLM 生成结构化数据或规范化聊天模型和 LLM 的输出时,此功能非常有用。
LangChain 专题5 工具调用
工具调用概述
许多人工智能应用直接与人类交互。在这些情况下,模型需要用自然语言回应。 但是,当我们希望模型也能直接与系统(如数据库或 API)交互时,又该如何呢? 这些系统通常有一个特定的输入模式;例如,API 经常有一个必需的负载结构。 这种需求促使了工具调用(Tool calling)的概念。可以使用工具调用来请求符合特定模式的模型响应。
LangChain 专题4 工具介绍
工具概述
LangChain 中的工具(Tool)抽象将一个 Python 函数与定义该函数名称、描述和预期参数的规范关联起来。
工具可以传递给支持工具调用的聊天模型,从而允许模型请求使用特定输入执行特定功能。
LangChain 专题2 使用消息
消息概述
消息(Message)是聊天模型中的通信单位。它们用于表示聊天模型的输入和输出,以及与对话可能相关的任何附加上下文或元数据。
每个消息都有一个角色(如“用户”、“助手”)和内容(如文本、多模态数据),此外还有根据聊天模型提供商而变化的附加元数据。
LangChain 专题3 使用提示模板
提示模板
提示模板(PromptTemplate)有助于将用户的输入和参数转换为语言模型的指令。这可以用来指导模型的响应,帮助其理解上下文并生成相关且连贯的语言输出。
提示模板以字典形式作为输入,其中每个键代表提示模板中的变量,需要填充内容。
LangChain 专题1 调用大语言模型
聊天模型
大型语言模型(LLM)是一种先进的机器学习模型,在文本生成、翻译、总结、问答等广泛的与语言相关任务中表现出色,无需在每个场景中都进行任务特定的微调。
现代大型语言模型通常通过聊天模型界面进行访问,该界面接受消息列表作为输入,并返回一条消息作为输出。
LangChain 介绍
介绍
LangChain 是一个框架,用于开发基于大语言模型(LLMs)的应用程序。
LangChain 简化了LLM应用生命周期的每一个阶段:
- 开发阶段:使用 LangChain 的开源构建块、组件和第三方集成来构建您的应用程序。使用 LangGraph 构建具有一流流处理和人工干预支持的有状态代理。
- 生产阶段:使用 LangSmith 检查、监控和评估您的链,从而可以不断优化和部署并有信心。
- 部署阶段:使用 LangGraph Cloud 将您的 LangGraph 应用程序转化为生产就绪的 API 和助手