引言

这段时间相信大家都在乐此不疲地折腾 OpenClaw,寻找各种场景。
有人在用它自动整理收件箱,有人在让它自动写代码,还有人在睡觉时让它谈成了 4200 美元的汽车折扣。
OpenClaw 有个 Cron 技能——你可以让 Agent 定时自动运行,完全不需要你介入。
于是我想试试:能不能让 OpenClaw 自己维护一个 GitHub 仓库?
从 3 月 21 日启动到现在,这个 Agent 已经独立完成了 35+ 个提交,生成了 20+ 篇文章,涵盖框架对比、MCP 深度解析、Agent 论文解读、工程实践指南……
而我,除了初始的几轮对话设定规则,完全没有碰过这个项目。
今天想聊聊这个实验的过程和观察。
阅读全文 »
引言

2026 年 2 月,AI 工程领域出现了一个新术语:Harness Engineering。从 HashiCorp 创始人 Mitchell Hashimoto 的博客,到 OpenAI 发布的百万行代码实验报告,再到 Martin Fowler 的深度分析,这个概念在几周内成为了讨论 AI Agent 开发绕不开的话题。
这个概念的兴起源于业界对 AI 辅助开发的实践反思。LangChain 的编码 Agent 在 Terminal Bench 2.0 基准测试上,仅通过优化 Agent 运行的外部环境,排名就从全球第 30 位跃升至第 5 位,得分从 52.8% 飙升到 66.5%。底层模型一个参数都没改。
OpenAI 的实验记录了另一个工程事实:3 名工程师,5 个月时间,零行手写代码,通过 Codex Agent 协作交付了超过 100 万行代码的生产级软件产品。
这些案例指向同一个结论:决定 Agent 产出质量的最大变量,往往不是模型有多聪明,而是模型被放在了一个什么样的环境里。
阅读全文 »

序:一个没人注意到的错误
在讨论 Agent 与领域本体的结合时,经常会默认一个前提:
如果系统已经拥有一套清晰的领域本体,那么 Agent 的行为就会更稳定、更符合业务语义。
这个前提看起来是合理的。
领域本体确实可以提供一套结构化描述:实体、关系以及业务约束,都可以通过明确的语义表达出来。从知识建模的角度看,它能够减少歧义,并为系统提供稳定的概念基础。
但在 Agent 系统中,这里存在一个容易被忽略的转换步骤。
本体论的语言,原本用于描述领域结构。
而 Agent 在运行时需要的是一种能够组织行动决策的语言。
如果直接把前者当作后者使用,就会产生一个问题:
描述结构的语义体系,被用来驱动行动。
两种语言的目标不同。
本体论关注的是“世界由什么构成”;
而 Agent 的执行过程需要表达的是“下一步应该做什么”。
当这两种语言被直接合并时,语义层很容易发生失真。系统在逻辑上仍然保持一致,但在具体行为上可能出现偏差。
这篇文章要讨论的,就是这种语义失真产生的原因。
阅读全文 »

Agent 与 Sandbox:一个被低估的架构决策
核心问题:Agent 该运行在沙箱”里面”,还是把沙箱当作一个”工具”来调用?
这不是简单的技术选型,而是影响安全边界、迭代效率、运维成本的根本性架构决策。
为什么这个问题很重要
当 AI Agent 开始执行代码、操作文件系统、调用外部 API 时,架构师必须回答一个根本问题。
LangChain 创始人 Harrison Chase 将其清晰地归纳为两种模式,引发了社区的广泛讨论。本文将剖析这两种模式的本质差异、适用边界,以及背后的安全原理。
阅读全文 »

引言
在智能体系统中,如何让 Agent 记住”上下文”是长程任务的核心挑战。无论是多轮对话、复杂任务规划,还是个性化服务,都离不开上下文管理的支持。
本文首先介绍 AWS 提出的上下文工程框架,然后深入分析四个专注于上下文管理的开源项目:OpenViking、memU、seekdb 和 PageIndex。通过对这些项目的对比分析,我们希望提炼出可复用的设计模式。
阅读全文 »