Chains
Chains可以让你按照一定的顺序和逻辑来执行不同的任务。Chains有以下四种类型:
类型 | 作用 |
---|---|
LLMChain | 用于在语言模型周围添加一些功能的简单Chain,它由一个PromptTemplate和一个语言模型(LLM或chat model)组成,它可以使用输入键值和内存键值(如果有的话)来格式化PromptTemplate,然后将格式化后的字符串传递给语言模型,并返回语言模型的输出 |
RouterChain | 用于创建一个动态选择下一个要使用的Chain的Chain的范式,它由两个组件组成:RouterChain本身(负责选择下一个要调用的Chain)和destination_chains(RouterChain可以路由到的Chain) |
SequentialChain | 用于将多个Chain连接起来,形成一个执行一些特定场景的管道的Chain,它允许将一个调用的输出作为另一个调用的输入 |
TransformChain | 用于创建一个通用的转换Chain,它可以对输入进行一些预处理或后处理,然后将其传递给另一个Chain |
Agents
通过Agents,可以让语言模型具有主动性和智能性。LangChain基于对AI应用开发的总结抽象,主要提供以下六种代理类型:
类型 | 作用 |
---|---|
Zero-shot ReAct | 用于根据工具的描述来决定使用哪个工具的Agent,它可以使用任意数量的工具,但要求每个工具都有一个描述 |
Structured input ReAct | 用于使用多输入工具的Agent,它可以根据工具的参数模式来创建一个结构化的动作输入,这对于更复杂的工具使用,如在浏览器中精确地导航,很有用 |
OpenAI Functions | 用于与一些特定的OpenAI模型(如gpt-3.5-turbo-0613和gpt-4-0613)协作的Agent,这些模型已经被显式地微调过,以便检测何时应该调用一个函数,并返回应该传递给函数的输入 |
Conversational | 用于在对话场景中使用的Agent,它的提示被设计成使Agent有助于和对话,它使用ReAct框架来决定使用哪个工具,并使用内存来记住之前的对话交互 |
Self-ask with search | 用于利用一个名为Intermediate Answer的工具的Agent,这个工具应该能够查找问题的事实答案,这个Agent相当于原始的自问自答与搜索论文,其中提供了一个Google搜索API作为工具 |
ReAct document store | 用于与文档存储交互的Agent,它使用ReAct框架,并且必须提供两个工具:一个Search工具和一个Lookup工具(它们必须被准确地命名为这样),Search工具应该搜索一个文档,而Lookup工具应该在最近找到的文档中查找一个术语,这个Agent相当于原始的ReAct论文,特别是Wikipedia示例 |
Agents是LangChain工程化封装与能力复用核心手段,可以动态的帮我们选择和调用 Chain 或者已有的工具,实现面向多种应用场景的智能适配。
Callbacks
LangChain中Callbacks是用于在链中插入自定义逻辑的组件,它可以让你对语言模型的行为进行控制和调整和调整。同样在LangChain中,它可以在链中的任何位置执行你定义的函数或代码。LangChain基于对AI应用开发的总结抽象,主要提供以下七种回调类型:
类型 | 作用 |
---|---|
Async callbacks | 用于在异步模式下执行回调函数的类,它可以让您在不阻塞主线程的情况下,监听和处理LLM应用的各个阶段的事件 |
Custom callback handlers | 用于自定义回调函数的类,它可以让您实现一些特定的逻辑,如验证,过滤,转换等,以及定义回调函数在哪些事件上被触发 |
Callbacks for custom chains | 用于为自定义的Chain添加回调函数的类,它可以让您在Chain的开始,结束,或每个组件的调用之前或之后执行一些操作 |
Logging to file | 用于将LLM应用的日志记录到文件中的类,它可以让您指定日志文件的路径,格式,级别等,并在每次LLM应用运行时自动写入日志信息 |
Multiple callback handlers | 用于同时使用多个回调函数的类,它可以让您将不同类型或功能的回调函数组合起来,并按照一定的顺序执行 |
Tags | 用于给回调函数添加标签的类,它可以让您根据标签来筛选或分组回调函数,并在一些特定的场景中使用它们 |
Token counting | 用于统计LLM应用使用的令牌数量的类,它可以让您监控和控制LLM应用的消耗,并在每次LLM应用运行时自动更新令牌计数 |
Callbacks是LangChain中实现自定义逻辑插入的入口,它可以让你的任务链达到合适场景时执行你自定义的功能和效果。
Model I/O
LangChain提供的:Model I/O,直接与模型进行交互,而不需要关心IO的细节。Model I/O有三种类型:
类型 | 作用 |
---|---|
Prompts | 用于向语言模型提供输入的模板,它们可以定义输入变量,输出格式,部分变量等,以便生成符合用户需求的文本 |
Language models | 用于人工智能模型的参数自定义,它们可以根据不同的参数(如温度,最大长度,前缀等)产生不同风格和内容的文本 |
Output parsers | 用于将语言模型的输出解析为更结构化的信息的类如JSON、XML |
Model I/O的核心思想是利用AI大模型强大的自然语言理解和生成能力,将任何形式的输入转换为自然语言,然后将自然语言输入到模型中,得到自然语言的输出,再将自然语言转换为任何形式的输出。
Retrieval
LangChain提供的:Retrieval,即定义好数据源以及加载方式后,直接从模型中检索(Retrieve)所需的信息,而不需要关心查询的细节。你可以把它想象成语言模型使用搜索引擎来查找相关内容。可以将Retrieval的能力划分为以下几个部分:
能力 | 作用 |
---|---|
Document loaders | 从不同的来源加载文档,支持多种文档类型和位置 |
Document transformers | 对文档进行变换,提取相关的部分,分割成小块 |
Text embedding models | 为文档创建语义嵌入,实现快速有效的相似度搜索 |
Vector stores | 存储和检索嵌入向量,支持多种数据库类型和接口 |
Retrievers | 从数据库中检索数据,支持多种检索算法和优化方法 |
Retrieval是LangChain中最重要的组件之一,它可以让语言模型拥有更丰富和更准确的上下文。Retrieval通过利用AI大模型强大的知识库和语义理解能力,能够将任何形式的查询转换为自然语言,然后将自然语言输入到模型中,得到自然语言的答案,再将自然语言转换为任何形式的输出。
Memory
LangChain提供的:Memory,即直接利用模型的记忆(Memory)能力。Memory是LangChain中用于存储和更新上下文的组件,它可以让语言模型记住之前的信息和状态。你可以把它想象成语言模型的大脑,它可以存储短期记忆和长期记忆。根据不同的使用场景,LangChain内部定义的Memory有以下类型:
类型 | 作用 |
---|---|
Conversation Buffer | 用于存储对话中的所有消息和元数据的内存,它可以返回一个列表,包含对话中的每个消息和其相关的信息,如发送者,接收者,时间戳等 |
Conversation Buffer Window Entity | 用于从对话缓冲区中提取特定窗口大小内的实体的内存,它可以返回一个字典,包含窗口内出现的实体及其频率,类型和位置 |
Conversation Knowledge Graph | 用于构建和更新对话中涉及的实体和关系的知识图谱的内存,它可以返回一个图结构,包含节点(实体)和边(关系),以及一些统计信息,如图的大小,密度,聚类系数等 |
Conversation Summary | 用于生成对话的摘要的内存,它可以返回一个字符串,包含对话的主要内容和目标 |
Conversation Summary Buffer | 用于存储对话摘要的内存,它可以返回一个列表,包含对话摘要的每个句子和其相关的信息,如生成时间,置信度等 |
Conversation Token Buffer | 用于存储对话中的所有单词和标点符号的内存,它可以返回一个列表,包含对话中的每个单词或标点符号及其相关的信息,如词性,命名实体类型等 |
Vector Store | 用于将对话中的文本或实体转换为向量表示,并进行相似度计算或聚类分析的内存,它可以返回一个矩阵,包含对话中每个文本或实体的向量表示,以及一些度量值,如余弦相似度,欧氏距离等 |
Memory的核心思想是利用AI大模型强大的参数和数据容量,将任何形式的数据转换为自然语言,并将其作为模型的输入或输出。
相关记忆组件从不同角度解决机器对话固有的遗忘问题:
- ConversationBufferMemory:基于对话历史缓存实现简单的全记忆
- ConversationBufferWindowMemory:利用时间窗口机制控制记忆容量
- ConversationSummaryMemory:通过提取语义摘要,记住关键信息并舍弃Noise
- ConversationKGMemory:将对话实体和事件图谱化,实现知识级记忆
- ConversationEntityMemory:连接外部实体知识,辅助机器人记忆和联想