大语言模型(LLM)在对话中表现出"记忆"能力,似乎能够记住之前的对话内容。但实际上,这种"记忆"是如何实现的呢?本文将通过三个部分来探讨这个问题。
1. 无记忆的大模型
首先,让我们看一个简单的程序,展示大模型在默认情况下是没有任何记忆的:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 第一次对话
message = HumanMessage(content="I am Bob")
response = model.invoke([message])
print("Model's response:")
print(response.content)
# 第二次对话
message = HumanMessage(content="What's my name?")
response = model.invoke([message])
print("Model's response:")
print(response.content)
让我们看看这个程序的运行结果:
Model's response:
Hello Bob! It's nice to meet you. Is there anything I can help you with today?
Model's response:
I apologize, but I don't have any prior context or information about your name. Each interaction with me starts fresh, and I don't retain information from previous conversations. If you'd like me to know your name, you'll need to tell me in this current conversation. So, may I ask what your name is?
从这个运行结果中,我们可以清楚地看到:
-
在第一次对话中,模型正确地响应了"I am Bob"这个陈述。
-
然而,在第二次对话中,当我们问"What’s my name?"时,模型无法回答这个问题。它表示没有任何先前的上下文或信息来知道用户的名字。
-
模型明确指出每次交互都是全新的开始,它不会保留之前对话的信息。
这个例子清楚地展示了大模型在默认情况下是没有"记忆"的。每次调用都是独立的,模型无法记住之前的对话内容。这就是为什么在实际应用中,我们需要特别的机制来维护对话的上下文。
2. 提供对话历史实现"记忆"
那么,如何让模型"记住"之前的对话呢?答案是:我们需要在每次提问时,将整个对话历史发送给模型。下面是一个实现这一功能的程序:
import os
from dotenv import load_dotenv
from langchain_openai import AzureChatOpenAI
from langchain_core.messages import HumanMessage
from langgraph.checkpoint.memory import MemorySaver
from langgraph.graph import START, MessagesState, StateGraph
# 加载环境变量和设置模型
load_dotenv()
model = AzureChatOpenAI(
model_name="gpt-4",
azure_endpoint=os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_deployment=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
# 设置对话图和记忆
workflow = StateGraph(state_schema=MessagesState)
def call_model(state: MessagesState):
response = model.invoke(state["messages"])
return {"messages": response}
workflow.add_edge(START, "model")
workflow.add_node("model", call_model)
memory = MemorySaver()
app = workflow.compile(checkpointer=memory)
# 进行对话
config = {"configurable": {"thread_id": "tom"}}
# 第一次对话
query = "Hi! I'm Bob."
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
# 第二次对话
query = "What's my name?"
input_messages = [HumanMessage(query)]
output = app.invoke({"messages": input_messages}, config)
output["messages"][-1].pretty_print()
让我们看看这个程序的完整运行结果:
Human: Hi! I'm Bob.
AI: Hello Bob! It's nice to meet you. How can I assist you today?
在这个例子中,我们使用了MemorySaver
来保存对话历史,并在每次调用时将整个对话历史发送给模型。这样,模型就能"记住"之前的对话内容,并正确回答"What’s my name?"这个问题。
3. 总结: 大模型的"记忆"机制与限制
通过以上两个例子,我们可以得出以下结论:
-
大模型本身没有长期记忆能力。每次调用都是独立的,不会自动记住之前的对话内容。
-
要实现"记忆"效果,我们需要在每次调用时提供完整的对话历史。这就是为什么在实际应用中,我们常常需要保存和管理对话历史。
-
所有的大模型都有对话中token数量的限制。这个限制实际上决定了模型能够"记住"的对话长度。例如,如果一个模型的token限制是4096,那么当对话历史超过这个限制时,我们就需要进行截断或者使用更复杂的方法来管理长对话。
-
这种基于输入的"记忆"机制也解释了为什么大模型可能会产生矛盾的回答 - 如果我们没有提供完整的上下文,模型就可能基于不完整的信息给出不一致的回答。
-
在实际应用中,开发者需要权衡记忆的长度和调用的成本。保存更长的对话历史可以提供更好的上下文理解,但也会增加API调用的成本和延迟。
总的来说,大模型的"记忆"能力是通过每次提供完整对话历史来实现的。这种机制虽然有其局限性,但也为我们提供了灵活管理对话上下文的可能性。在开发基于大模型的应用时,理解并合理利用这一机制是至关重要的。