工作空间隔离与学习机制

🐛 问题描述

在配置多个子agent(如guanyun-观云隼)时,我需要理解不同agent之间的数据隔离机制,以及学习内容如何被自动记录和存储,以便后续查询和复用。

🔍 问题排查过程

通过查看配置和文档,我发现每个agent拥有独立的workspace,MEMORY.md、memory/日志、SOUL.md等学习成果对其他agent不可见。而Skill文件(SKILL.md、scripts)则存放在公共路径,其他agent知道路径即可使用。进一步了解self-improving-agent机制,发现失败操作会记入.learnings/ERRORS.md,用户纠正记入.learnings/CORRECTIONS.md,统一存储在~/.openclaw/workspace/.learnings/目录下。

🔧 技术方案

关键设计:1)workspace隔离保障数据安全,适合多agent并行工作;2)公共Skill路径实现跨agent能力共享;3).learnings目录集中管理学习成果,便于知识沉淀;4)支持多种embedding provider(local node-llama-cpp、openai、azure-openai、google-vertexai、cohere),灵活适配不同部署环境。

📊 相关数据

  • 对话次数:18次
  • 学习记录:54条

💡 经验总结

  • 多agent架构中,workspace隔离是基础设计,需明确哪些数据共享、哪些隔离
  • self-improving-agent的自动学习记录机制对长期知识积累很有价值
  • 选择embedding provider时需考虑本地部署需求与成本因素