AWS代付、代实名
阿里云国际 | 腾讯云国际

相得益彰:Mem0 记忆框架与亚马逊云科技的企业级 AI 实践

亚马逊AWS官方博客

相得益彰:Mem0 记忆框架与亚马逊云科技的企业级 AI 实践

想象一下这样的场景:

个人助手场景:当你的 AI 助手能够记住你三个月前提到”不喜欢吃辣”这个细节,在今天推荐餐厅时自动筛选掉川菜和湘菜;或者它记得你上周提到的重要会议,主动在会前提醒 你准备相关材料。

企业服务场景:客户致电咨询时,AI 客服立即调取该客户的完整交互历史——从半年前 的产品咨询,到上个月的技术支持,再到最近的投诉处理,为客户提供连贯一致的个性化 服务体验,而不是每次都要重新解释问题背景。

这就是记忆增强型 AI 的魅力所在——它让 AI 从”健忘的工具”升级为”贴心的伙伴”。

本文将深入探讨如何通过 Mem0 智能记忆框架与亚马逊云科技服务生态的深度集成,构建 真正的生产级记忆增强型 AI 系统。我们不仅会分析记忆机制的技术原理,更会展示如何 利用 Aurora Serverless、Bedrock、Neptune 等云原生服务,实现从概念验证到企业级部 署的完整解决方案。

记忆对于 Agentic AI 应用的重要性

记忆缺失:当前 AI 系统的根本局限

传统的大语言模型受限于固定的上下文窗口,就像患有”失忆症”的助手,无法在跨会话的长期对话中保持一致性和连贯性。每次对话都是全新的开始,用户不得不反复解释自己的偏好和背景。

这种记忆缺失会引发典型问题:遗忘用户偏好、重复询问已知信息、甚至推翻之前确认的事实。例如,在饮食推荐场景中,用户明确表示不喜欢某类食物,但系统在后续交互中仍会推荐相同类型的食物,这一常见情况从根本上损害了用户体验并破坏了用户信任。

为了解决记忆问题,业界尝试通过扩大上下文窗口来缓解,但这种方法存在根本性局限:1)持续的人机交互必然导致对话历史超出任何固定窗口限制。2)人类能够动态整合新信息并修正过时认知,而LLM只能通过完全重置来更新知识。3)真实对话缺乏主题连贯性——用户可能从讨论食物偏好跳转到工作任务,再回到晚餐选择,迫使系统在大量无关信息中寻找相关线索。4)更关键的是,仅仅提供更长上下文无法保证有效信息检索,因为注意力机制对远距离token的处理能力会显著退化,导致真正有价值的信息被噪声淹没。

人类记忆的启示

人类记忆是智能的根基,它不仅定义了我们的身份,更是明智决策、持续学习和建立深度关系的基础。人类能够回忆过往互动,推断他人偏好,并构建与交往对象不断演化的心理模型。理想的AI记忆框架应当模拟这种动态、适应性的记忆机制,实现从简单存储到智能管理的根本转变。

记忆增强型Agent的突破

真正的解决方案在于构建具备记忆能力的智能体。这类Agent能够突破传统LLM的局限,在交互环境中实现质的飞跃。

核心能力提升体现在四个方面:

  • 个性化预测能力。通过记住用户历史行为和偏好,Agent能够更准确地预测客户需求,提供真正个性化的服务体验。
  • 经验学习能力。系统能够从过往错误中学习,建立经验库以避免重复失误,并将在特定任务中获得的知识有效泛化到其他相关场景。
  • 因果推理能力。记忆功能使Agent能够理解行动与结果之间的因果关系,基于深层逻辑进行决策优化,在动态变化的环境中实现更有效的适应。
  • 长期规划能力。跨会话的记忆连续性确保了多轮对话中的推理一致性,使Agent从简单的被动响应升级为具备长期规划能力的智能系统。

在医疗诊断、个性化教育、企业客户支持等对历史信息依赖性强的关键领域,这种记忆增强能力的价值更加凸显。

Mem0框架:构建生产级记忆增强型AI Agent

Mem0框架概述

Mem0 是一个专为现代 AI Agent 设计的智能记忆层,它使AI Agent能够记住过去的交互、存储重要的用户偏好和事实背景,并从成功和失败中学习。通过与Mem0集成,Agent从无状态转变为有状态,能够保持上下文、回忆重要信息,并随着时间推移表现得更加智能。

与传统的简单数据存储不同,Mem0专注于智能记忆管理,支持多种记忆类型:工作记忆(临时对话上下文)、事实记忆(客观信息)、情景记忆(具体事件)和语义记忆(概念知识),并提供智能的LLM提取、过滤和衰减机制,有效降低计算成本。系统不仅支持多模态(文本和图像),还提供Graph记忆功能来连接跨会话的见解和实体。作为一个既可以使用托管服务也可以自建的解决方案,Mem0让AI Agent能够建立持久的记忆,从而提供更个性化和适应性更强的服务。

技术架构设计

Mem0采用分层设计理念,通过六个核心模块的协同工作,实现智能记忆管理的完整闭环。

分层架构的设计优势在于各层职责清晰、可独立优化。核心记忆层作为控制中枢,统筹记忆的CRUD操作;大语言模型层提供智能决策能力,负责信息提取和更新策略生成;嵌入模型层将自然语言转换为机器可理解的向量表示;向量存储层基于语义相似性实现高效检索;图存储层构建实体关系网络,支持复杂推理;持久化存储层确保元数据和操作历史的可靠保存。

这种架构设计既保证了系统的模块化和可扩展性,又通过层间的紧密协作实现了智能记忆管理的核心目标。

核心技术创新

Mem0的技术创新体现在四个关键方面,这些创新共同构成了其智能记忆管理的核心竞争力。

双LLM架构是其最重要的创新之一。系统通过两次不同的LLM调用实现复杂的分工:第一次专注于信息提取,第二次专门处理决策过程。这种关注点分离不仅提高了准确性和可靠性,还允许对各阶段进行专门优化,避免了单一模型处理复杂任务时的性能瓶颈。

上下文感知处理确保了记忆系统的一致性。Mem0不是孤立处理信息,而是在现有记忆的上下文中分析新数据,防止碎片化并维护相关信息间的逻辑关系。

智能去重机制通过向量相似性搜索与基于LLM判断的结合,创建了强大的去重能力,既防止了冗余信息存储,又保持了记忆质量和系统效率。

冲突解决能力使系统能够智能处理矛盾信息,在用户偏好和环境随时间演变时维护记忆准确性,这是传统存储系统难以实现的高级功能。

记忆操作机制

Mem0的核心价值在于智能化的记忆管理。系统封装了记忆添加、检索、更新和删除四大核心操作,其中添加和检索是关键环节。

智能记忆添加流程

Mem0对于记忆的添加流程如下图所示。(图片来源:Mem0官方文档)

Mem0的记忆添加过程体现了从自然语言到结构化知识的智能转换,分为三个关键阶段:

  • 信息提取阶段:系统通过LLM和专门提示词进行深度语义分析,从”我和John在星巴克讨论AI项目”中提取工作关系、场所偏好、兴趣领域等多维信息。
  • 上下文检索阶段:融合向量相似性搜索、图谱关系检索和上下文关联分析,在严格用户隔离的前提下,确保新信息与历史记忆的有机关联。
  • 智能决策阶段:通过第二次LLM调用,智能决定ADD、UPDATE、DELETE或NONE操作,维护记忆库的质量和一致性。
  • 高效记忆检索流程

Mem0对于记忆的检索流程如下图所示。(图片来源:Mem0官方文档)

检索流程采用查询预处理、并行化搜索、结果整合三阶段设计,通过向量语义搜索和图谱关系搜索的并行执行,实现高效准确的记忆检索。

通过这种精心设计的双流程架构,Mem0为构建生产级记忆增强型AI Agent提供了坚实的技术基础。

Mem0与Agent框架的集成

在实际应用中,开发者可以通过两种方式将Mem0集成到Agent系统中:一是在环境变量配置依赖信息后,直接调用Mem0的接口函数(如添加、查找、更新记忆等);二是将Mem0封装成工具传入Agent框架,由Agent根据处理逻辑自主调用相应方法。

集成方式选择

直接接口调用方式:开发者可以在配置好环境变量和依赖信息后,直接使用Mem0提供的接口函数。这种方式给予开发者完全的控制权,可以精确地决定何时添加记忆、何时检索记忆、如何更新记忆内容。适合对记忆管理有特定需求或需要与现有系统深度集成的场景。

工具封装方式:将Mem0封装成工具传入Agent框架,让Agent根据自身的处理逻辑自主决定何时调用相应的记忆方法。这种方式更加智能化,Agent可以根据对话上下文和用户需求自动判断是否需要存储新记忆或检索历史记忆,减少了人工干预的需要。

框架选择策略

使用支持Mem0的Agent框架:对于希望快速构建记忆增强型Agent的开发者,可以选择支持Mem0的现有Agent框架。这些框架通常内置了专门的记忆管理工具集,封装了完整的Mem0能力,具有开箱即用、集成最佳实践、适合快速原型开发等优势。

自定义Agent框架集成:对于需要更高灵活性和定制化的场景,开发者可以在自己的Agent框架中直接集成Mem0。通过配置化的方式,可以直接指定相应的LLM、Embedding模型以及向量数据库等组件,创建定制化的Mem0实例。

基础集成示例

以下是直接接口调用的基本示例:

from mem0 import Memory

config = {

“llm”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: “us.anthropic.claude-3-7-sonnet-[已去除电话]-v1:0”,

“temperature”: 0.2,

“max_tokens”: 2000,

}

},

“embedder”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: “amazon.titan-embed-text-v2:0”

}

},

“vector_store”: {

“provider”: “pgvector”,

“config”: {

“user”: “$DB_USER”,

“password”: “$DB_PASSWORD”,

“host”: “$DB_HOST”,

“port”: “$DB_PORT”,

“embedding_model_dims”: “1024”,

“collection_name”: “mem0_memories”,

}

},

“graph_store”: {

“provider”: “neptune”,

“config”: {

“endpoint”: “neptune-graph://gXXXXXX”

}

}

}

创建 Memory 实例并使用

memory = Memory.from_config(config)

memory.add(“I love sci-fi movies”, user_id=”user123″)

relevant_memories = memory.search(“movie preferences”, user_id=”user123″)

通过灵活的集成策略,开发者可以根据具体需求选择最适合的实现方式。然而,要实现企业级的生产部署,仅仅有Mem0框架是不够的,还需要充分利用云服务提供商的基础设施优势。

接下来,我们将深入探讨如何将Mem0与亚马逊云科技的服务生态进行深度集成,利用Aurora Serverless、Bedrock、Neptune等云原生服务,构建真正的生产级记忆增强型AI系统。

亚马逊云科技与Mem0的深度集成

亚马逊云科技为Mem0提供了完整的服务生态支持,开发者可以根据具体需求选择最适合的亚马逊云科技服务组合。

如上图所示,完整的解决方案采用分层架构设计,从上到下包含四个核心层次:

  • 用户应用层:StrandsAgent、LangGraph等开发框架,提供多样化的Agent构建方式
  • Mem0智能记忆层:核心记忆管理引擎,协调信息提取、智能决策、记忆检索和生命周期管理。
  • 亚马逊云科技托管服务层:Amazon Bedrock提供AI能力,Aurora Serverless提供向量存储,Neptune Analytics提供图存储
  • 安全与管理层:IAM、KMS、VPC等服务确保企业级安全保障

这种云原生架构的核心优势在于弹性伸缩、按需付费和全托管服务,让开发者专注于业务逻辑而非基础设施管理。下面我们按照数据流向,深入探讨各层的技术特点和集成优势。

AI能力层:Amazon Bedrock

作为整个架构的”智能大脑”,Amazon Bedrock为Mem0的双LLM架构提供强大的AI推理能力,承担信息提取、智能决策和语义理解的核心任务。

丰富的模型生态选择

Amazon Bedrock作为托管基础模型服务,为Mem0提供了业界丰富的模型选择,包括Anthropic的Claude系列、Amazon的Nova系列、Meta的Llama系列、Cohere的Command系列,以及AI21 Labs的Jurassic系列等。

这种多模型支持使得开发者可以根据具体的应用场景、性能要求和成本预算选择最适合的模型组合:

  • LLM模型选择:Amazon Nova系列作为亚马逊云科技自研的多模态大模型,在文本、图像等多模态理解和生成方面表现优异;Claude系列在复杂推理任务中表现卓越;Llama和Command系列则为成本敏感的应用提供高性价比选择。
  • 嵌入模型选择:Titan Embed系列提供高质量的文本嵌入能力,支持长文本处理和多模态记忆功能;Cohere嵌入模型则在多语言场景中表现优异
  • 企业级安全与合规

Bedrock提供企业级的安全保障,所有模型调用都在亚马逊云科技安全边界内进行,数据传输采用TLS加密,静态数据通过KMS加密。与IAM深度集成,支持细粒度的访问控制和审计日志,满足金融、医疗等行业的合规要求。

统一API与智能调度

Bedrock的统一API设计简化了多模型管理,支持无服务器部署和按需付费。

Bedrock多模型配置示例 – 针对Mem0优化的生产配置

bedrock_config = {

“llm”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: “us.anthropic.claude-3-7-sonnet-[已去除电话]-v1:0”,# 信息提取和决策

“temperature”: 0.1,

“max_tokens”: 4000,

“top_p”: 0.9

}

},

“embedder”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: “amazon.titan-embed-text-v2:0”, # 向量化记忆内容

“normalize”: True,

“dimensions”: 1024

}

}

}

通过Bedrock丰富的模型生态和统一的API管理,Mem0能够实现真正智能的记忆管理,从简单的信息存储升级为具备理解、推理和决策能力的认知系统。

存储层:Aurora Serverless + Neptune Analytics

作为Mem0记忆系统的数据基础,Aurora Serverless和Neptune Analytics构成了完整的存储解决方案:Aurora负责向量化记忆的高效存储和检索,Neptune负责实体关系的图谱管理和推理,两者协同工作为记忆增强型AI提供强大的数据支撑。

向量存储:Amazon Aurora Serverless for PostgreSQL

Aurora Serverless for PostgreSQL凭借pgvector插件的原生向量支持、标准SQL接口和活跃社区生态,为Mem0提供了理想的向量存储基础。

核心技术优势

  • 原生向量能力:pgvector插件支持欧几里得距离、余弦相似度和内积计算等核心向量操作,完美匹配记忆检索需求
  • 弹性伸缩架构:Aurora Serverless能够根据负载自动调整计算资源,支持从0到256TiB的存储自动扩展,实现真正的按需付费
  • 企业级可靠性:AZ+1级别的可用性保证,即使在一个可用区和一个额外故障发生时仍能对外提供服务,确保珍贵记忆数据的安全
  • 全球化部署能力:Aurora Global Database为需要全球部署的记忆增强型Agent应用提供关键支持。主区域的记忆数据可以在1秒内复制到最多10个次要区域,确保全球用户都能快速访问及时更新的记忆。
  • Aurora Serverless配置示例

aurora_config = {

“vector_store”: {

“provider”: “pgvector”,

“config”: {

“host”: “aurora-serverless-cluster.cluster-xxx.us-east-1.rds.amazonaws.com”,

“port”: 5432,

“database”: “mem0_db”,

“user”: “mem0_user”,

“password”: “${AWS_SECRET_MANAGER_PASSWORD}”,

“embedding_model_dims”: 1024,

“collection_name”: “mem0_memories”,

“distance_metric”: “cosine”

}

}

}

图存储:Amazon Neptune Analytics

Neptune Analytics作为Serverless图分析服务,与Mem0实现深度集成,为记忆增强型AI提供强大的图存储和关系推理能力。

核心技术优势

  • Serverless弹性架构:根据查询复杂度和数据量自动调整计算资源,采用智能内存管理策略,支持大规模图遍历操作和并行处理
  • 深度集成优势:与Mem0原生集成,系统能够自动从对话中提取实体和关系,构建知识图谱,通过多跳图推理显著提升AI响应质量
  • 混合检索能力:支持在图遍历中集成向量相似性搜索,为记忆系统提供强大的关联分析能力
  • 企业级安全保障:与IAM深度集成提供细粒度访问控制,支持身份基础策略和临时凭证,API调用采用TLS 1.2+加密传输。
  • Neptune Analytics配置示例

neptune_config = {

“graph_store”: {

“provider”: “neptune”,

“config”: {

“endpoint”: “neptune-graph://g-XXXXXX”,

“query_timeout”: 30000,

“max_results”: 1000,

“retry_config”: {

“max_attempts”: 3,

“backoff_multiplier”: 2

}

}

}

}

存储层协同优势

通过Aurora和Neptune的协同工作,Mem0实现了完整的记忆数据管理:向量存储处理语义相似性检索,图存储处理实体关系推理,两者结合为AI Agent提供了既能理解语义又能推理关系的强大记忆能力。这种双存储架构不仅提高了检索精度,更重要的是为复杂的记忆场景提供了多维度的数据支撑。

应用开发层 – StrandsAgent + LangGraph

在完整的存储基础之上,开发者可以通过多种框架构建记忆增强型Agent应用。StrandsAgent和LangGraph作为两种主流的开发框架,为不同的开发需求提供了灵活的集成方案。

StrandsAgent:工具化记忆集成

StrandsAgent作为亚马逊云科技提供的Agent开发框架,原生集成了Mem0记忆管理功能。为了更好地支持不同客户的需求,我们对mem0_memory工具进行了两个增强:

  • 向量数据库扩展:原始框架主要支持OpenSearch作为向量存储后端,我们新增了对Aurora PostgreSQL的原生支持,充分利用pgvector插件和Serverless架构的优势
  • 多模型提供商支持:除了Amazon Bedrock外,还支持OpenAI兼容接口,比如DeepSeek等模型,通过STRANDS_MODEL_PROVIDER环境变量实现灵活切换,满足不同地区的部署需求,使得该方案不仅可在亚马逊云科技海外区域部署,同样也适用于北京和宁夏区域。
  • 核心改动:完整的增强实现

class Mem0ServiceClient:

新增:Aurora PostgreSQL + Bedrock配置

PG_CONFIG_BEDROCK = {

“embedder”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: os.environ.get(“EMBEDDING_MODEL”, “amazon.titan-embed-text-v2:0”)

}

},

“llm”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: os.environ.get(“LLM_MODEL”, “us.anthropic.claude-3-7-sonnet-[已去除电话]-v1:0”),

“temperature”: 0.1,

“max_tokens”: 2000,

},

},

“vector_store”: {

“provider”: “pgvector”,

“config”: {

“collection_name”: “mem0_memories”,

“host”: os.environ.get(“POSTGRESQL_HOST”),

“port”: os.environ.get(“POSTGRESQL_PORT”),

“user”: os.environ.get(“POSTGRESQL_USER”),

“password”: os.environ.get(“POSTGRESQL_PASSWORD”),

“embedding_model_dims”: “1024”,

}

}

}

新增:OpenAI兼容 + PostgreSQL配置

PG_CONFIG_OPENAI = {

“llm”: {

“provider”: “openai”,

“config”: {

“model”: os.environ.get(“LLM_MODEL”),

“api_key”: os.environ.get(“OPENAI_API_KEY”),

“temperature”: 0.1,

“max_tokens”: 2000,

}

},

“embedder”: {

“provider”: “openai”,

“config”: {

“model”: os.environ.get(“EMBEDDING_MODEL”),

“api_key”: os.environ.get(“OPENAI_API_KEY”),

}

},

“vector_store”: {

“provider”: “pgvector”,

“config”: {

“collection_name”: “mem0_memories”,

“host”: os.environ.get(“POSTGRESQL_HOST”),

“port”: os.environ.get(“POSTGRESQL_PORT”),

“user”: os.environ.get(“POSTGRESQL_USER”),

“dbname”: os.environ.get(“DB_NAME”),

“password”: os.environ.get(“POSTGRESQL_PASSWORD”),

“embedding_model_dims”: “1024”,

}

}

def _initialize_client(self, config: Optional[Dict] = None) -> Any:

“””增强的客户端初始化逻辑”””

if os.environ.get(“MEM0_API_KEY”):

return MemoryClient()

新增:PostgreSQL后端支持

if os.environ.get(“POSTGRESQL_HOST”):

logger.info(“Using PostgreSQL backend with Aurora Serverless”)

return self._initialize_postgresql_client(config)

if os.environ.get(“OPENSEARCH_HOST”):

logger.info(“Using OpenSearch backend”)

return self._initialize_opensearch_client(config)

return self._initialize_faiss_client(config)

def _initialize_postgresql_client(self, config: Optional[Dict] = None) -> Mem0Memory:

“””新增:根据模型提供商选择相应配置”””

pg_config = (self.PG_CONFIG_BEDROCK

if os.environ.get(‘STRANDS_MODEL_PROVIDER’) == “bedrock”

else self.PG_CONFIG_OPENAI)

merged_config = self._merge_config(pg_config.copy())

return Mem0Memory.from_config(config_dict=merged_config)

使用方式

增强后的工具使用方式保持不变,但现在支持更多的部署选项:

import os

from strands import Agent

from strands_tools import mem0_memory

场景1:Aurora PostgreSQL + Amazon Bedrock上的模型

os.environ[“STRANDS_MODEL_PROVIDER”] = “bedrock”

os.environ[“LLM_MODEL”] = “us.anthropic.claude-3-7-sonnet-[已去除电话]-v1:0”

os.environ[“EMBEDDING_MODEL”] = “amazon.titan-embed-text-v2:0”

场景2:Aurora PostgreSQL + OpenAI兼容的模型

os.environ[“STRANDS_MODEL_PROVIDER”] = “openai”

os.environ[“LLM_MODEL”] = ” deepseek-ai/DeepSeek-R1/wvvkzheh2i”

os.environ[“EMBEDDING_MODEL”] = “Pro/BAAI/bge-m3”

os.environ[“OPENAI_API_KEY”] = “your-api-key”

PostgreSQL配置(通用)

os.environ[“POSTGRESQL_HOST”] = “aurora-cluster.cluster-xxx.us-east-1.rds.amazonaws.com”

os.environ[“POSTGRESQL_USER”] = “mem0_user”

os.environ[“POSTGRESQL_PASSWORD”] = “${AWS_SECRET_MANAGER_PASSWORD}”

os.environ[“DB_NAME”] = “mem0_db”

创建Agent,Agent后续会根据tool的定义,按需调用记忆增加、检索等接口

agent = Agent(tools=[mem0_memory])

技术优势

这些增强带来的核心价值:

  • 存储优化:Aurora PostgreSQL的Serverless架构和成本效益
  • 全球部署:支持不同地区的模型提供商和合规需求
  • 开发友好:保持API兼容性,通过环境变量实现灵活配置
  • 生态整合:与亚马逊云科技服务深度集成,简化运维管理
  • LangGraph:状态驱动的记忆工作流

LangGraph作为专门用于构建有状态、多智能体协作的编程框架,与Mem0的结合为构建具备长短期记忆的智能Agent提供了强大支撑。

核心集成优势

  • 状态管理:LangGraph的状态管理机制与Mem0的记忆系统完美结合,实现跨会话的记忆连续性
  • 工作流编排:通过节点和边的设计,可以精确控制记忆的检索、处理和存储时机
  • 弹性架构集成:与Aurora Serverless深度集成,实现云原生的弹性记忆管理
  • LangGraph工作流示例 – 记忆驱动的对话流程

from langgraph.graph import StateGraph, START, END

定义记忆增强的工作流

workflow = StateGraph(State)

workflow.add_node(“memory_retrieval”, memory_search_node)

workflow.add_node(“agent_processing”, memory_enhanced_chatbot)

workflow.add_node(“memory_storage”, memory_save_node)

记忆驱动的状态转换

workflow.add_edge(START, “memory_retrieval”)

workflow.add_edge(“memory_retrieval”, “agent_processing”)

workflow.add_edge(“agent_processing”, “memory_storage”)

workflow.add_edge(“memory_storage”, END)

编译并运行

app = workflow.compile()

result = app.invoke({“query”: “推荐一部电影”, “user_id”: “alice”})

基于项目实际实现的最小化节点函数示例

async def memory_enhanced_chatbot(state: AgentState) -> AgentState:

“””记忆增强的聊天机器人节点 – 基于项目中的响应生成节点”””

获取用户输入和记忆上下文

user_input = state.get(“user_input”, “”)

recalled_memories = state.get(“recalled_memories”, [])

生成记忆增强的响应

response = await generate_response_with_memory(

user_input=user_input,

memories=recalled_memories,

user_id=state.get(“user_id”, “default”)

)

更新状态

state[“final_response”] = response

state[“processing_complete”] = True

return state

async def memory_search_node(state: AgentState) -> AgentState:

“””记忆搜索节点 – 基于项目中的召回模型节点”””

user_input = state.get(“user_input”, “”)

user_id = state.get(“user_id”, “default”)

使用Mem0搜索相关记忆

mem0 = get_mem0_instance() # 获取Mem0实例

search_results = mem0.search(user_input, user_id=user_id)

处理搜索结果

if isinstance(search_results, dict) and “results” in search_results:

memories = search_results[“results”]

else:

memories = search_results or []

更新状态

state[“recalled_memories”] = memories

state[“memory_search_complete”] = True

logger.info(f”Retrieved {len(memories)} memories for user {user_id}”)

return state

async def memory_save_node(state: AgentState) -> AgentState:

“””记忆保存节点 – 基于项目中的最终化节点”””

user_input = state.get(“user_input”, “”)

final_response = state.get(“final_response”, “”)

user_id = state.get(“user_id”, “default”)

保存用户输入到记忆

mem0 = get_mem0_instance()

构建记忆内容和元数据

memory_content = f”User said: {user_input}”

metadata = {

“type”: “user_input”,

“timestamp”: datetime.now().isoformat(),

“conversation_id”: state.get(“conversation_id”),

“response_generated”: bool(final_response)

}

添加到记忆系统

result = mem0.add(memory_content, user_id=user_id, metadata=metadata)

更新状态

state[“memory_saved”] = True

state[“memory_save_result”] = result

logger.info(f”Memory saved for user {user_id}”)

return state

辅助函数

async def generate_response_with_memory(user_input: str, memories: List[Dict], user_id: str) -> str:

“””基于记忆生成响应的辅助函数”””

构建包含记忆上下文的提示

memory_context = “”

if memories:

memory_texts = [mem.get(“memory”, “”) for mem in memories[:3]] # 取前3个最相关的记忆

memory_context = f”相关记忆: {‘; ‘.join(memory_texts)}”

这里可以调用LLM生成响应

在实际项目中,这会调用Amazon Bedrock或其他LLM服务

response = f”基于记忆回复: {memory_context}\n用户问题: {user_input}”

return response

def get_mem0_instance():

“””获取Mem0实例的辅助函数”””

这里返回配置好的Mem0实例

在实际项目中,这会从配置中初始化Mem0

from mem0 import Memory

config = {

“version”: “v1.1”,

“llm”: {

“provider”: “aws_bedrock”,

“config”: {

“model”: “us.anthropic.claude-3-7-sonnet-[已去除电话]-v1:0”,

“max_tokens”: 1000,

“temperature”: 0.7

}

},

“vector_store”: {

“provider”: “pgvector”,

“config”: {

“host”: “aurora-serverless-cluster.cluster-xxx.us-east-1.rds.amazonaws.com”,

“port”: 5432,

“database”: “mem0_db”,

“user”: “mem0_user”,

“password”: “${AWS_SECRET_MANAGER_PASSWORD}”,

“embedding_model_dims”: 1024,

“collection_name”: “mem0_memories”,

“distance_metric”: “cosine”

}

}

}

return Memory.from_config(config)

进一步思考:分层记忆管理

基于认知科学的启发,我们可以基于Mem0实现分层记忆管理系统,模拟人类记忆的工作原理。系统将记忆按重要性分为工作记忆、短期记忆、长期记忆和核心记忆四个层级,实现智能的记忆资源管理。

分层记忆设计理念

  • 工作记忆层:存储当前对话的临时信息,具有最高访问速度但最短保存时间
  • 短期记忆层:保存近期的用户偏好和行为模式,为个性化服务提供基础数据
  • 长期记忆层:存储用户的稳定特征和重要历史信息,提供深度的用户理解能力
  • 核心记忆层:保存用户的身份信息和最关键特征,几乎永久保存
  • 分层记忆配置示例

memory_config = {

“importance_thresholds”: {

MemoryType.WORKING: 1.0, # 工作记忆重要性阈值

MemoryType.SHORT_TERM: 3.0, # 短期记忆重要性阈值

MemoryType.LONG_TERM: 5.0, # 长期记忆重要性阈值

MemoryType.CORE: 8.0 # 核心记忆重要性阈值

},

“decay_rates”: {

MemoryType.WORKING: 0.8, # 高衰减率:快速遗忘临时信息

MemoryType.SHORT_TERM: 0.3, # 中等衰减率:逐步淡化近期信息

MemoryType.LONG_TERM: 0.05, # 低衰减率:缓慢衰减长期信息

MemoryType.CORE: 0.01 # 极低衰减率:几乎永久保存

},

“max_age_hours”: {

MemoryType.WORKING: 24, # 工作记忆最大存活时间:1天

MemoryType.SHORT_TERM: 168, # 短期记忆最大存活时间:1周

MemoryType.LONG_TERM: 8760, # 长期记忆最大存活时间:1年

MemoryType.CORE: float(‘inf’) # 核心记忆:永久保存

},

“enable_automatic_promotion”: True, # 启用自动提升

“maintenance_interval_hours”: 6 # 维护间隔

}

记忆提升工作流程

智能提升机制通过以下步骤自动管理记忆层级:

  • 初始评估阶段:新记忆通过LLM进行重要性评分,低于1.0阈值的信息被直接丢弃,确保只有有价值的信息进入记忆系统
  • 工作记忆阶段:符合条件的记忆进入工作记忆层,系统开始监控访问频次和强化次数,为后续提升决策收集数据
  • 短期记忆提升:当访问次数达到3次且被强化2次以上,同时存在时间超过1小时时,系统自动将记忆提升至短期记忆层
  • 长期记忆提升:在短期记忆层停留24小时以上,且访问次数达到7次、重要性评分超过5.0时,记忆被提升至长期记忆层
  • 核心记忆提升:长期记忆中的高频访问内容(15次以上)且重要性评分达到8.0时,提升至核心记忆层,获得几乎永久的保存
  • 自然衰减机制:各层记忆根据不同的衰减率自然降低活跃度,长时间未访问的记忆会被自动清理,释放存储资源

整个提升过程完全自动化,无需人工干预。系统会根据访问频次、重要性评分、强化次数和时间因素综合判断,确保重要信息得到适当的保存层级,同时让临时信息自然衰减。

开发框架选择指南

  • 选择StrandsAgent:工具化集成方式,Agent自动决定记忆操作时机,适合快速开发和标准化场景
  • 选择LangGraph:工作流编排方式,开发者精确控制记忆处理流程,适合复杂业务逻辑和定制化需求
  • 直接API集成:完全自主控制,适合现有系统集成和特殊定制需求

通过这些开发框架和高级特性的支持,开发者可以根据具体需求选择最适合的集成方式,快速构建生产级的记忆增强型Agent应用。

监控管理层:可视化仪表板

为了有效管理和监控记忆系统,我们开发了基于Streamlit的可视化仪表板,展示如何在生产环境中操作和维护Mem0与PostgreSQL的集成。

功能特性

  • 实时监控:记忆总数、新增趋势、类型分布等关键指标
  • 数据库监控:Aurora PostgreSQL连接状态、性能指标和错误率
  • 智能搜索:支持语义搜索和多维度筛选分析
  • 开发支持:详细日志记录和错误处理机制
  • 核心技术实现

仪表板采用渐进式的数据获取策略,确保在不同数据状态和网络条件下都能正常工作:

核心数据获取实现 – 从Mem0读取记忆数据

@st.cache_data(ttl=30)

def get_user_memories(user_id: str) -> List[Dict[Any, Any]]:

“””初始化Mem0 对象”””

mem0 = init_mem0()

if not mem0 or not user_id.strip():

return []

try:

方法1:从Mem0检索记忆

search_result = mem0.search(“user”, user_id=user_id)

if isinstance(search_result, dict) and “results” in search_result:

memories = search_result[“results”]

else:

memories = search_result

if memories:

processed_memories = []

for memory in memories:

if isinstance(memory, dict):

processed_memories.append(memory)

elif hasattr(memory, ‘__dict__’):

processed_memories.append(memory.__dict__)

else:

标准化记忆对象

memory_dict = {

‘id’: getattr(memory, ‘id’, str(uuid.uuid4())),

‘memory’: str(memory),

‘user_id’: user_id,

‘created_at’: getattr(memory, ‘created_at’, datetime.now().isoformat()),

‘metadata’: getattr(memory, ‘metadata’, {})

}

processed_memories.append(memory_dict)

return processed_memories

方法2: 回退到全量数据获取

memories = mem0.get_all(user_id=user_id)

if isinstance(memories, dict) and ‘results’ in memories:

memories_list = memories[‘results’]

elif isinstance(memories, list):

memories_list = memories

else:

return []

processed_memories = []

for memory in memories_list:

if isinstance(memory, dict):

processed_memories.append(memory)

elif hasattr(memory, ‘__dict__’):

processed_memories.append(memory.__dict__)

return processed_memories

except Exception as e:

st.error(f”获取记忆数据时发生错误: {str(e)}”)

return []

*可视化界面展示*

如上图所示,仪表板提供了直观的记忆系统监控界面,包括记忆统计、搜索功能、数据筛选和详细的记忆内容展示。

业务价值体现

通过统一的监控界面,开发团队能够快速诊断问题、优化记忆策略、提升开发效率,为构建生产级记忆增强型AI系统提供完整的运维支撑。

架构总结

通过亚马逊云科技与Mem0的深度集成,我们构建了一个企业级记忆增强型AI解决方案:

  • 技术完整性:覆盖了从大模型调用、向量存储、图存储到应用开发的完整技术栈
  • 部署灵活性:支持多种模型提供商和存储后端,适应不同地区和场景的部署需求
  • 开发便利性:提供了工具调用和Agent集成的方式,满足不同复杂度的应用需求
  • 运维支撑:通过可视化仪表板和企业级安全特性,为生产环境提供必要的监控和管理能力

这种集成方案为开发者提供了构建记忆增强型AI应用的技术基础和实践参考。

Mem0使用效果示例

为了展示Mem0框架的智能记忆管理能力,我们通过一个企业内部知识分享的多轮对话场景,演示系统如何处理记忆演进和复杂关系推理。

第一次对话:建立基础关系

用户

“我和Bob是同一个项目组的,他是我们的技术负责人,在推荐系统方面很有经验。”

助手+系统响应

您好!我看到您提供了关于您的团队信息,我会将这些内容存储到记忆中,以便在未来的对话中更好地为您提供帮助。

Using Tool: mem0_memory

Tool Result (success)

感谢您分享关于您项目组的信息。我已记录下您与Bob在同一个项目组工作的情况,以及Bob作为技术负责人在推荐系统方面的丰富经验。这些信息对我们今后的交流很有帮助。

如果您有任何关于推荐系统或者与您项目相关的问题,或者需要其他方面的帮助,请随时告诉我。我会根据您提供的背景信息,尽可能地提供相关和个性化的支持。

向量数据库存储

第二次对话:扩展关系网络

用户

“Bob推荐我去找Carol学习机器学习,她是AI团队的专家,在深度学习方面特别厉害。”

助手+系统响应

我看到您提到Bob推荐您去找Carol学习机器学习,并且Carol是AI团队的专家,尤其在深度学习方面很厉害。让我先检查一下我是否有关于您的任何现有信息,以便为您提供更加个性化的帮助。

Using Tool: mem0_memory

Tool Result (success)

我看到您之前和Bob一起工作,他是项目的技术负责人,在推荐系统方面拥有丰富的经验。现在让我来为您存储关于Carol的新信息:

Using Tool: mem0_memory

Tool Result (success)

Using Tool: mem0_memory

Tool Result (success)

感谢您分享这些信息!我已经记录下了关于Carol的专业知识以及Bob的推荐。

根据我们之前的交流,我了解到您和Bob是同事,他是项目的技术负责人,在推荐系统方面有丰富经验。现在他推荐您向Carol学习机器学习,这是个很好的建议!

Carol作为AI团队的专家,特别是在深度学习领域有专长,确实是学习机器学习的理想人选。如果您有兴趣深入学习这个领域,找Carol指导是非常合适的。

您计划如何联系Carol呢?或者您对机器学习有什么特定的学习目标或问题想先了解一下?我很乐意帮您准备一些与Carol交流的关键问题或者提供一些机器学习的基础资源。

向量数据库存储

第三次对话:深化专业关联

用户

“Carol提到她和David合作过一个很成功的电商推荐系统项目,用的是深度学习技术。”

助手+系统响应

我注意到您提到了关于Carol和David合作的电商推荐系统项目的信息。为了更好地理解和保存这条重要信息,我需要先检查一下是否已经有关于Carol的记录,然后将这条新信息存储起来。

Using Tool: mem0_memory

Tool Result (success)

现在我看到了一些关于Carol的现有信息,我将存储这条新的关于Carol和David合作项目的信息:

Using Tool: mem0_memory

Tool Result (success)

感谢您分享这条信息。我已经记录了Carol和David合作开发的电商推荐系统项目的细节。

根据我已有的记忆,我了解到:

  • Carol是AI团队的专家,特别擅长深度学习领域
  • 现在我知道她与David合作开发了一个成功的电商推荐系统项目,应用了深度学习技术
  • 此前Bob曾推荐向Carol学习,特别是在机器学习方面
  • 这个项目信息很有价值。如果您想了解更多关于Carol的专业知识或者这个推荐系统项目的细节,或者您有任何其他信息想要分享,请随时告诉我。
  • 向量数据库存储

    第四次对话:查询,记忆存储价值体现

    用户

“我想找一个推荐系统方面的专家,最好是通过可信渠道了解到的,能给我一些实战经验。”

助手+系统响应

您好!我理解您正在寻找推荐系统方面的专家,希望获得一些实战经验。为了更好地为您服务,我想先了解一下您之前是否与我们讨论过相关话题或有任何推荐系统方面的偏好。

让我先查询一下您的历史记录,看看我们是否有相关的信息:

Using Tool: mem0_memory

Tool Result (success)

根据我查询到的信息,我发现您之前可能已经与一些推荐系统方面的专家有所联系或了解。基于我们的记录,我可以为您提供以下推荐:

  • Bob – 他是推荐系统方面的专家,并且是某项目的技术负责人。根据记录,您曾与Bob在同一个项目组中工作,他在推荐系统领域有丰富的经验。这是一个通过您的工作关系建立的可信渠道。
  • Carol – 她是一位AI团队的专家,特别在深度学习方面非常厉害。有趣的是,正是Bob之前推荐您向Carol学习。Carol与另一位同事David曾合作开发了一个成功的电商推荐系统项目,使用了深度学习技术。

鉴于您希望通过可信渠道了解到的专家,且需要实战经验,我建议您可以:

  • 优先联系Bob,他既是您的同事,也是推荐系统领域的专家,可以直接分享他的实战经验。
  • 请Bob引荐您认识Carol,她在深度学习推荐系统方面有成功的电商项目经验,特别是如果您对深度学习在推荐系统中的应用感兴趣。
  • 也可以请Carol介绍她与David合作的电商推荐系统项目的实战经验和关键技术点。

您希望我为您提供更多关于这些专家的详细信息,或者您对其他方面的推荐系统专家有特定要求吗?

无记忆系统的对比

记忆清除

登陆到向量数据库,将会话历史删除。

用户

“我想找一个推荐系统方面的专家,最好是通过可信渠道了解到的,能给我一些实战经验。”

助手+系统响应

您好!我很乐意帮您寻找推荐系统方面的专家。为了更好地为您提供个性化服务,我需要先了解一下您之前是否已经与我讨论过相关的需求或提供过一些信息。让我先查询一下您的历史记录。

Using Tool: mem0_memory

Tool Result (success)

看起来我们之前没有存储关于您的信息。为了能够更好地帮助您,我想了解一些更具体的信息,这样我可以将其保存下来,以便今后为您提供更个性化的服务。

关于您寻找推荐系统专家的需求,我想了解几点:

  • 您对推荐系统的哪些方面特别感兴趣?(例如:电商推荐、内容推荐、算法实现等)
  • 您希望这位专家能提供什么类型的实战经验?(例如:系统搭建、算法优化、A/B测试等)
  • 您计划通过什么方式与专家交流?(例如:咨询、合作、指导等)

我会将您提供的这些信息保存下来,以便今后能够更精准地为您服务。同时,我可以根据您的需求,推荐一些可以寻找推荐系统专家的可信渠道,如专业社区、行业会议、学术机构等。

核心价值对比

通过上述多轮对话演示,我们可以清晰地看到记忆系统与传统无记忆系统的核心差异:

|对比维度

|有记忆系统

|无记忆系统

|专家推荐

|基于已知关系推荐Bob、Carol、David

|无法提供具体推荐,需要用户自行寻找

|关系分析

|提供完整的关系链:Bob→Carol→David

|缺乏人际关系和背景关联信息

|上下文理解

|记住用户背景和历史交互内容

|每次对话都需要重新了解需求

|交互效率

|一次查询获得完整解决方案

|需要多轮问答收集基础信息

总结和展望

Mem0框架标志着Agentic AI应用从无状态向有状态的重要转变。通过双LLM架构和智能记忆管理机制,解决了传统AI系统的记忆缺失问题,实现了真正的个性化和上下文连续性。

Mem0框架与亚马逊云科技的深度集成真正体现了”相得益彰”的协同效应——Mem0提供智能记忆管理核心能力,亚马逊云科技提供企业级基础设施支撑。这种结合实现了能力倍增,推动记忆增强型AI从概念验证走向生产实践。该方案不仅可在亚马逊云科技海外区域部署,同样也适用于北京和宁夏区域。

记忆增强型Agent在企业客户服务、个性化教育、知识管理等领域展现出巨大潜力。随着多模态AI技术发展,未来的记忆系统将支持更丰富的数据类型和更强的自主学习能力。记忆增强型Agentic AI将推动人工智能从工具向伙伴的根本性转变,为用户创造更加智能、个性化的数字体验。

*前述特定亚马逊云科技生成式人工智能相关的服务目前在亚马逊云科技海外区域可用。亚马逊云科技中国区域相关云服务由西云数据和光环新网运营,具体信息以中国区域官网为准。


点击联系客服Telegram
赞(0)
未经允许不得转载:AWS USDT代付 | Payment 解决方案 » 相得益彰:Mem0 记忆框架与亚马逊云科技的企业级 AI 实践

AWS代付、代充值免实名

联系我们阿里云国际免实名