觉得 Cortex 有用?点个 ⭐ 支持一下 — 只需 1 秒,帮助更多人发现这个项目。
你的 AI 记忆只存在你的设备上——不外传、不收费、不监控。 纯 Rust,3.8MB,无第三方服务器,零遥测,零成本。通过你自己的云盘同步。
理念: 你的记忆属于你——不是云服务商的训练数据,不是创业公司的变现资产,不是任何人的监控目标。Cortex 100% 运行在你自己的硬件上,数据存在你自己的数据库里,同步只通过你自己的云盘(iCloud、Google Drive、OneDrive、Dropbox)。没有中间人能看到你的数据,不需要 API Key,不需要注册账号。接入你的 AI Agent,它就能记忆——隐私、持久、亚毫秒级响应。
LLM 每次对话都从零开始。你的助手忘了你的名字、你的偏好、昨天的对话、上周做的决定。当前的"记忆"方案要么是纯文本文件,要么是关键词搜索,要么是云端 API——增加 200-500ms 延迟,收你的钱,还把你的隐私数据发到别人的服务器上。
Cortex 解决了这个问题。它为你的 AI 提供结构化、可查询、自进化的长期记忆,跨会话、跨渠道、跨上下文持续运作——贝叶斯信念系统自动修正认知,社交图谱跨平台统一身份,所有操作亚毫秒级响应。全部本地运行,全部属于你。
| Cortex | Mem0 | OpenAI Memory | |
|---|---|---|---|
| 隐私 | 100% 本地,零云端 | 云端 API(数据在他们服务器) | OpenAI 服务器 |
| 延迟 | 62µs 写入,253µs 搜索 | ~200-500ms | ~300-800ms |
| 费用 | 永久免费 | $99+/月(Pro) | ChatGPT Plus $20/月 |
| 记忆层级 | 4 层(工作/情景/语义/程序) | 1 层(扁平) | 1 层(扁平) |
| 贝叶斯信念 | 自修正,基于证据更新 | 不支持 | 不支持 |
| 社交图谱 | 跨渠道身份解析 | 仅付费版 | 不支持 |
| 对话压缩 | 自动会话摘要 | 不支持 | 不支持 |
| 关系推理 | 基于模式(中英双语) | 不支持 | 不支持 |
| 时间检索 | 意图感知("最近"/"第一次") | 不支持 | 不支持 |
| 矛盾检测 | 自动检测 + 置信度评分 | 不支持 | 不支持 |
| 整合引擎 | 情景→语义自动晋升 | 不支持 | 不支持 |
| 上下文注入 | Token 预算控制的 LLM 输出 | 手动 | 自动但不透明 |
| 导入/导出 | 完整 JSON 备份恢复 | 仅 API | 不支持导出 |
| 自托管 | 原生二进制、Docker、MCP | 仅云端 | 仅云端 |
| 二进制大小 | 3.8 MB | npm 包 | N/A |
| 运行依赖 | 0 | Node.js + 云端 | N/A |
| 开源 | MIT | 部分开源 | 不开源 |
| 加密 | AES-256-GCM 加密同步(可选) | 无 | 无 |
| 隐私分级 | Private(默认,不同步)/ Shared / Public | 无 | 无 |
| 零遥测 | 无任何分析、无回传,可验证 | 未知 | 否 |
| 费用 | 永久免费,无限制 | Pro $99+/月 | Plus $20/月 |
| 中文 NLP | 原生支持(推理、检索、关系) | 不支持 | 有限 |
| 操作 | Cortex | Mem0(云端) | 文件方案 |
|---|---|---|---|
| 写入 | 62µs | ~200ms | ~1ms |
| 搜索(top-10) | 253µs | ~300ms | ~10ms |
| 上下文生成 | 111µs | ~500ms | 手动拼接 |
| 信念更新 | 28µs | 不支持 | 不支持 |
| 社交图谱 | 20µs | 付费版 | 不支持 |
| 结构化事实 | 8µs | 不支持 | 不支持 |
| 1K 条记忆搜索 | 1.1ms | ~500ms | ~50ms |
比 Mem0 云端快 1,182 倍。并且提供 Mem0 和 OpenAI Memory 都没有的功能。
LoCoMo 基准测试(ACL 2024)
学术级长期对话记忆评测 — 10 段对话,1540 个 QA 对,4 个类别。
| 系统 | 单跳事实 | 多跳推理 | 开放域 | 时间推理 | 总体 |
|---|---|---|---|---|---|
| Backboard | 89.4% | 75.0% | 91.2% | 91.9% | 90.0% |
| MemMachine v0.2 | — | — | — | — | 84.9% |
| Cortex v1.7 | 72.5% | 59.5% | 88.8% | 74.1% | 73.7% |
| Mem0-Graph | 65.7% | 47.2% | 75.7% | 58.1% | 68.4% |
| Mem0 | 67.1% | 51.2% | 72.9% | 55.5% | 66.9% |
| OpenAI Memory | — | — | — | — | 52.9% |
关键发现:
- 开放域 88.8% — 领先 Mem0(72.9%)+15.9%
- 时间推理 74.1% — 领先 Mem0(55.5%)+18.6%
- 单跳事实 72.5% — 领先 Mem0(67.1%)+5.4%
- 多跳推理 59.5% — 领先 Mem0(51.2%)+8.3%
- 总体 73.7% — 超过 Mem0(66.9%)+6.8%,超过 OpenAI Memory(52.9%)+20.8%
Cortex 在全部 4 个类别上均超过 Mem0 — 同时 100% 本地运行,端到端加密,零成本。
测试配置: Claude Sonnet 4(问答+评分),nomic-embed-text(Ollama 本地 embedding),top-30 检索。完全可复现:
python3 bench/locomo_bench.py
Cortex 实现了受人类认知启发的四层记忆模型:
+---------------------+
| 工作记忆 Working | 当前会话上下文
+---------------------+
|
+---------------------+
| 情景记忆 Episodic | 原始体验:对话、事件、观察
+---------------------+
| 整合引擎(衰减、晋升、模式提取)
+---------------------+
| 语义记忆 Semantic | 提炼的事实、偏好、关系
+---------------------+
|
+---------------------+
| 程序记忆 Procedural | 学习到的流程和工作模式
+---------------------+
工作记忆保存当前会话的草稿板。情景记忆存储带时间戳和来源元数据的原始体验。整合引擎周期性地将重复出现的模式晋升为语义事实,并衰减过期的情景。程序记忆捕获学习到的工作流和行为模式。
跨渠道身份解析。同一个人在 Telegram 发消息、发邮件、出现在日历事件中——统一为一个身份节点。每个人的互动次数、关系强度和沟通模式都被追踪。
自修正的世界理解。信念从证据中形成,随每次新观察更新,可以被反证推翻。置信度反映真实的确定性,而非简单的时效偏差。
cortex.observe_belief("user_prefers_morning_meetings", true, 0.8)?;
cortex.observe_belief("user_prefers_morning_meetings", false, 0.6)?;
// 置信度通过贝叶斯更新自动调整情景→语义晋升、过期记忆衰减、模式提取。作为后台循环运行,保持记忆库精简可查。返回晋升、衰减、合并的详细报告。
查询组合五种信号进行相关性排序:
- 相似度 — 查询向量的余弦距离
- 时间 — 带可配衰减的时效权重
- 显著性 — 基于访问模式和显式提示的重要性评分
- 社交 — 涉及特定人物的记忆加权
- 渠道 — 按来源渠道过滤或加权
从记忆状态生成 LLM 可直接消费的上下文字符串。传入 token 预算、可选的渠道/人物过滤器,返回结构化文本块。
自动从文本中提取结构化知识,无需 LLM,<1ms 响应。支持中英双语:
- 事实提取:住所、工作、身份、姓名、年龄、经验
- 偏好提取:工具、语言、喜好
- 时间分类:临时("正在调试")vs 永久("我住在上海")
SQLite 持久化,内存向量索引实现快速相似性搜索。单文件数据库,无需外部服务。为边缘部署设计——笔记本、树莓派、服务器都能运行。
通过你自己的云盘跨设备同步记忆——不经过任何第三方服务器。
设备 A (Mac) 你的云盘 设备 B (iPhone)
┌──────────┐ ┌──────────────────────┐ ┌──────────┐
│ SQLite DB │ ──写──> │ iCloud / GDrive / │ <──读── │ SQLite DB│
│ (本地) │ │ OneDrive / Dropbox │ │ (本地) │
│ │ <──读── │ │ ──写──> │ │
└──────────┘ └──────────────────────┘ └──────────┘
- 基于变更日志:每个设备写入自己的操作日志,互不冲突
- 无冲突:设备永远不会写同一个文件,使用混合逻辑时钟 (HLC) 的 Last-Writer-Wins 合并
- 端到端加密:AES-256-GCM 加密(可选),即使云账号被入侵,记忆仍然安全
- 隐私感知:Private 记忆(默认)永远不离开本地设备,只有 Shared/Public 记忆才同步
支持的云盘:iCloud Drive、Google Drive、OneDrive、Dropbox(自动检测)。
use cortex_core::sync::SyncConfig;
// 启用加密同步
let config = SyncConfig::new(sync_dir, device_id, device_name)
.with_encryption("my-strong-passphrase");
cortex.enable_sync(config)?;
// 拉取其他设备的变更
let applied = cortex.sync_pull()?;
println!("应用了 {} 条远程变更", applied);| 特性 | 详情 |
|---|---|
| 加密 | AES-256-GCM + Argon2id 密钥派生(每行随机 nonce) |
| 隐私分级 | Private(默认,不同步)、Shared、Public |
| 内存清零 | 敏感数据在释放时从内存中清除(zeroize crate) |
| 零遥测 | 无分析、无回传。验证:grep -r "reqwest|hyper|TcpStream" cortex-core/src/ |
| 无账号 | 无需 API Key、无需注册、无云端依赖 |
详见 SECURITY.md。
安装 Rust 工具链(提供 cargo 命令):
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh安装完成后,重启终端或手动加载环境:
source "$HOME/.cargo/env"验证安装:
cargo --version想象你的 AI 助手在一周真实对话中的表现:
# 第 1 天 — 你在 Telegram 上聊天
你:"和 Stripe 的 Sarah 开会很顺利,她对我们的 API 很感兴趣。"
Cortex 自动提取:
├── 情景记忆已存储(156µs)
├── 事实:Sarah → 就职于 → Stripe(置信度:0.85)
├── 事实:Sarah → 感兴趣 → 我们的 API
└── 身份解析:sarah_telegram
# 第 2 天 — Sarah 给你发邮件
发件人:sarah@stripe.com
"这是我们讨论的技术规格文档。"
Cortex:
├── 身份解析:sarah@stripe.com → 合并到 sarah_telegram
│ (同一个人,不同渠道 — 自动跨平台身份识别)
└── 事实:Sarah → 发送了 → 技术规格文档
# 第 3 天 — 你问 AI
你:"Stripe 那边进展如何?"
Cortex 检索(568µs):
├── Sarah 在 Stripe 工作(语义事实)
├── 会议顺利,对 API 感兴趣(情景记忆,第 1 天)
├── 她发了技术规格文档(情景记忆,第 2 天)
└── 跨渠道上下文:Telegram + Email 统一归属同一人
你的 AI 带着完整上下文回答 — 不再"抱歉,我不记得了" 🎯
# 第 5 天 — 新信息到来
你:"Sarah 上个月已经跳槽去 Anthropic 了。"
Cortex:
├── 矛盾检测:Sarah 就职于 Stripe vs Sarah 就职于 Anthropic
├── 旧事实置信度衰减:Stripe(0.85 → 0.15)
├── 新事实存储:Sarah → 就职于 → Anthropic(0.90)
└── 信念通过贝叶斯推理自动更新 — 自我修正,无需手动清理
# 第 7 天 — 整合引擎运行
Cortex 自动整合:
├── 3 条关于 Sarah 的情景记忆 → 晋升为语义摘要
├── 其他话题的过期记忆 → 衰减
└── 模式发现:你每周一都有固定会议
所有这些在本地 <1ms 内完成。无云端。无 API 调用。无人窥探你的数据。
use cortex_core::Cortex;
// 打开(或创建)记忆数据库
let cortex = Cortex::open("memory.db")?;
// 从 Telegram 对话写入一条记忆
cortex.ingest(
"和 Alice 讨论了 Q3 路线图",
"telegram", // 来源渠道
Some("alice_123"), // 用户 ID(触发身份解析)
Some(0.8), // 显著性提示
None, // 自动生成向量(需启用 embeddings 特性)
)?;
// 直接添加语义事实
cortex.add_fact(
"Alice", "works_at", "Acme Corp",
0.95, "telegram", None,
)?;
// 存储偏好
cortex.add_preference("timezone", "Asia/Shanghai", 0.9)?;
// 检索相关记忆
let results = cortex.retrieve(
"关于 Alice 我知道什么?",
5, // top-k
None, // 任意渠道
None, // 任意人物
None, // 自动生成查询向量
)?;
// 生成 LLM 上下文(token 预算控制)
let context = cortex.get_context(
2000, // 最大 token 数
Some("telegram"), // 渠道过滤
None, // 不过滤人物
)?;
// 将 context 作为系统/用户消息前缀传给 LLM
// 运行整合(定期调用)
let report = cortex.run_consolidation()?;Cortex 提供轻量 HTTP 服务,可与任意语言/框架集成。默认绑定 127.0.0.1——你的数据永远不会离开你的机器。
# 构建并运行
cargo build --release -p cortex-http
./target/release/cortex-http --port 3315 --db ~/.cortex/memory.db
# 或通过 Docker(预构建镜像)
docker run -v ~/.cortex:/data -p 3315:3315 ghcr.io/gambletan/cortex/cortex-http:latest
# 或本地构建
docker build -t cortex .
docker run -v ~/.cortex:/data -p 3315:3315 cortex| 方法 | 路径 | 说明 |
|---|---|---|
| GET | /health |
健康检查 |
| POST | /v1/memories |
写入记忆 |
| POST | /v1/memories/search |
语义搜索 |
| GET | /v1/memories/context |
生成 LLM 上下文 |
| POST | /v1/memories/consolidate |
运行整合周期 |
| POST | /v1/memories/infer |
预览推理(不存储) |
| POST | /v1/facts |
添加语义事实 |
| POST | /v1/facts/contradictions |
检查矛盾 |
| POST | /v1/preferences |
设置偏好 |
| GET | /v1/beliefs |
列出信念 |
| POST | /v1/beliefs/observe |
用证据更新信念 |
| POST | /v1/people |
解析人物身份 |
| POST | /v1/memories/compress |
压缩旧对话会话 |
| POST | /v1/relationships/extract |
从文本中提取关系 |
| GET | /v1/export |
导出全部数据(JSON 备份) |
| POST | /v1/import |
从备份导入数据 |
# 写入一条记忆
curl -X POST http://localhost:3315/v1/memories \
-H 'Content-Type: application/json' \
-d '{"text": "我喜欢用 Rust 写代码", "channel": "cli"}'
# 搜索
curl -X POST http://localhost:3315/v1/memories/search \
-H 'Content-Type: application/json' \
-d '{"query": "编程偏好", "limit": 5}'
# 导出全部数据(备份到 iCloud、NAS 等)
curl http://localhost:3315/v1/export > ~/iCloud/cortex-backup.json
# 从备份导入
curl -X POST http://localhost:3315/v1/import \
-H 'Content-Type: application/json' \
-d @~/iCloud/cortex-backup.jsonCortex 作为 MCP 服务器发布,兼容所有 MCP 客户端。
1. 构建并安装:
mkdir -p ~/.local/bin ~/.cortex
cargo build --release -p cortex-mcp-server
cp target/release/cortex-mcp-server ~/.local/bin/2. 注册 MCP 服务器:
Claude Code(命令行):
# 全局(所有项目)
claude mcp add cortex --scope user -- ~/.local/bin/cortex-mcp-server ~/.cortex/memory.db
# 或按项目
claude mcp add cortex -- ~/.local/bin/cortex-mcp-server ~/.cortex/memory.dbClaude Desktop — 添加到 ~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"cortex": {
"command": "/Users/you/.local/bin/cortex-mcp-server",
"args": ["/Users/you/.cortex/memory.db"]
}
}
}3. 允许工具自动执行(免确认):
在 ~/.claude/settings.json → permissions.allow 中添加:
"mcp__cortex__*"注意:MCP 工具权限不支持括号格式(如
mcp__cortex__memory_ingest(*)),使用通配符mcp__cortex__*即可。
4. 在 CLAUDE.md 中启用自动记忆:
# 记忆(Cortex)
你拥有通过 Cortex MCP 工具的持久记忆,自动使用:
- 对话开始:调用 memory_context 加载已知信息
- 用户分享偏好/事实/个人信息:调用 memory_ingest 存储
- 学到结构化事实:调用 fact_add(如 "User works_at Google")
- 检测到偏好:调用 preference_set(如 editor=neovim)
- 证据支持或反驳信念:调用 belief_observe
- 遇到新人:调用 person_resolve 追踪身份
- 定期:调用 memory_consolidate 清理过期记忆你的 Claude 记忆跟随你到所有设备——MacBook、iMac、工作电脑——通过你自己的云盘同步。
一句话开启同步:
你:"帮我开启跨设备记忆同步"
Claude 调用 sync_enable → 自动检测 iCloud Drive →
生成设备 ID + AES-256-GCM 加密密钥 → 完成。
输出:
云盘: iCloud Drive
加密: AES-256-GCM
密码短语: a1b2c3... ← 保存好,其他设备要用
在第二台设备上,同样安装 Cortex,然后:
你:"用密码 a1b2c3... 开启同步"
Claude 调用 sync_enable(passphrase: "a1b2c3...") →
连接同一个 iCloud 同步目录 → 拉取所有记忆。
两台设备共享同一份记忆。偏好、事实、信念、社交图谱——全部实时同步。
什么会同步,什么不会:
- Private 记忆(默认)永远不离开本地 — 只有 Shared/Public 记忆同步
- 所有同步数据 AES-256-GCM 加密 — 即使云账号被入侵,记忆仍然安全
- 不需要服务器、API、账号 — 只用你自己的云盘
CLI 方式:
# 设备 A
cortex-mcp-server sync enable
# 保存输出中的密码短语
# 设备 B
cortex-mcp-server sync enable --passphrase "设备A的密码短语"
# 手动拉取
cortex-mcp-server sync pull跨多个项目工作?使用独立数据库实现物理级记忆隔离 — 零跨项目泄漏,无需改代码。
~/.cortex/
├── global.db # 用户偏好、人脉图谱、跨项目知识
├── my-app.db # 项目 A 的记忆
└── my-api.db # 项目 B 的记忆
全局配置(~/.claude/settings.json)— 用户级知识:
{
"mcpServers": {
"cortex-global": {
"command": "~/.local/bin/cortex-mcp-server",
"args": ["~/.cortex/global.db"]
}
},
"permissions": { "allow": ["mcp__cortex-global__*", "mcp__cortex-project__*"] }
}项目配置(~/.claude/projects/<path>/settings.json)— 项目专属:
{
"mcpServers": {
"cortex-project": {
"command": "~/.local/bin/cortex-mcp-server",
"args": ["~/.cortex/my-app.db"]
}
}
}然后将以下记忆隔离规则添加到项目的 CLAUDE.md 中:
## 记忆隔离
两个 Cortex MCP 服务:`cortex-project`(项目 DB)和 `cortex-global`(全局 DB)。
### 写入策略
- 存到 `cortex-project`:本仓库的架构、代码、模块、测试、工作流、配置、Bug、决策、术语。
- 存到 `cortex-global`:仅限长期用户偏好、沟通风格、跨项目习惯、跨仓库通用的个人背景。
- **默认:不确定时存 `cortex-project`。**
### 读取策略
1. 先查 `cortex-project`。
2. 再查 `cortex-global`,仅用于用户级偏好。
3. 冲突时以项目记忆为准。
### 防泄漏规则
- 禁止自动将 `cortex-project` 的记忆复制到 `cortex-global`。
- 禁止将仓库特有的路径、模块名、账户名存入 `cortex-global`。
- 禁止将项目实现细节当作用户级全局偏好。
### 更新规则
- Cortex 是追加写入的。更新方式:搜索旧条目 → 删除 → 写入新条目。这样每个项目拥有两个独立的 Cortex 实例 — 完全隔离,同时共享用户级知识。
| 工具 | 用途 |
|---|---|
memory_ingest |
存储记忆(文本、渠道、人物上下文) |
memory_search |
跨所有记忆层的语义搜索 |
memory_context |
生成 LLM 就绪的上下文摘要(token 预算控制) |
memory_consolidate |
运行衰减 + 晋升 + 清扫周期 |
memory_infer |
主动推理预览(不存储) |
memory_compress |
压缩旧对话会话 |
memory_stats |
获取记忆统计(各层数量、索引大小) |
memory_decay |
对情景记忆执行时间衰减 |
belief_observe |
用证据更新贝叶斯信念 |
belief_list |
查询高于阈值的信念 |
fact_add |
存储结构化知识(主语-谓语-宾语) |
fact_query |
按实体查询事实(SQL 索引) |
preference_set |
存储用户偏好 |
preference_query |
按键模式查询偏好 |
person_resolve |
跨渠道身份解析 |
person_list |
列出所有已知人物 |
contradiction_check |
检查事实矛盾 |
relationship_extract |
从文本中提取关系 |
给你的 OpenClaw Agent 加上永久记忆,支持自动记忆和自动召回。
安装:
# 1. 安装 Cortex 二进制
curl -fsSL https://github.com/ghraw/gambletan/cortex/main/install.sh | bash
# 2. 安装 OpenClaw 插件
openclaw plugin add @cortex-ai-memory/cortex-memory配置(可选,默认即可使用):
{
"plugins": {
"@cortex-ai-memory/cortex-memory": {
"autoCapture": true,
"autoRecall": true,
"topK": 10
}
}
}功能说明:
autoCapture:每轮对话后自动存储上下文autoRecall:每轮对话前自动注入相关记忆(你的 Agent "记住"了一切)- 7 个工具:memory_search, memory_store, fact_add, belief_observe, person_resolve 等
详见 openclaw-plugin/README.md。
cortex/
├── cortex-core/ # Rust 核心库(所有记忆逻辑)
│ ├── src/
│ │ ├── lib.rs # Cortex 入口
│ │ ├── types.rs # MemObject、MemoryTier 等
│ │ ├── inference.rs # 主动推理(中英双语)
│ │ ├── episode.rs # 情景记忆
│ │ ├── semantic.rs # 语义事实 + 偏好
│ │ ├── working.rs # 工作记忆
│ │ ├── procedural.rs # 程序记忆
│ │ ├── people.rs # 社交图谱 + 身份解析
│ │ ├── belief.rs # 贝叶斯信念系统
│ │ ├── consolidation.rs # 情景→语义晋升 + 衰减
│ │ ├── retrieval.rs # 多信号检索引擎
│ │ ├── context.rs # LLM 上下文生成
│ │ └── storage/ # SQLite + 内存向量索引
│ └── benches/ # 性能基准测试
├── cortex-http/ # HTTP REST API(axum,仅本地)
├── cortex-mcp-server/ # MCP 服务器(3.8MB)
├── cortex-python/ # Python 绑定(PyO3)
├── openclaw-plugin/ # OpenClaw 记忆插件
├── Dockerfile # 自托管 Docker 镜像
└── Cargo.toml # 工作空间根配置
- v0.2 ✅ — 本地向量嵌入(all-MiniLM-L6-v2/ONNX),批量查询,重要性感知衰减 + 自动整合
- v0.3 ✅ — 主动推理(自动提取事实),时间感知,矛盾检测,中文 NLP
- v0.4 ✅ — HTTP REST API(axum),导入/导出(JSON 备份),Docker 打包
- v0.5 ✅ — 对话压缩,关系推理(中英双语),时间检索增强,112 个测试
- v1.0 ✅ — 功能对比表,性能基准更新,18 项 Cortex vs Mem0 vs OpenAI 对比
- v1.1 ✅ — HNSW 向量索引(5万条搜索:12ms → 91µs),Python SDK(
pip install cortex-ai-memory) - v1.2 ✅ — 否定检测(中英双语),多跳检索,117 个测试
- v1.3 ✅ — 上下文质量优化,查询扩展,双向关系推理,126 个测试
- v1.4 ✅ — 增量 HNSW,SQL 索引实体查询,LLM 摘要钩子,18 个 MCP 工具,可配置衰减,LLM 辅助推理,131 个测试
- v1.5 ✅ — Docker 镜像(GHCR 自动发布),功能冻结
- v1.7 ✅ — 云同步(基于变更日志,HLC 排序,LWW 合并),AES-256-GCM 加密(Argon2id 密钥派生),隐私执行(Private/Shared/Public),内存清零(zeroize),SECURITY.md,27 个 MCP 工具,400+ 测试
- v2.0 ✅ — 后台同步(文件系统监听 + 轮询),Web Dashboard,Homebrew,集成文档(CrewAI/AutoGen/LangGraph/DeerFlow),489 测试
- v2.1 — 移动端(iOS/Android),多模态记忆,WASM 构建
MIT