为什么你的 AI 转型举步维艰

有了以上框架,我们可以重新审视实践中常见的 AI 转型困境。这些困境通常被归因于模型能力或团队纪律,但通过特征分析可以看到,根因在于结构性的不匹配。

"AI 写的代码质量太差"

常见归因:模型能力不够,prompt 没写好。

用本章的框架来看,这是忠实执行特征的直接后果。Agent 忠实于输入。产出的随机性来自规约的模糊性,和模型能力关系有限。换一个更强的模型,模糊的规约仍然产出随机的代码。问题的根源在输入侧:规约是否足够清晰、完整、可测试。第二章将讨论如何通过规约体系解决这个问题。

"大任务交给 AI 就崩了"

常见归因:AI 只能做简单任务,复杂工作还得人来。

这是有限处理容量特征的直接后果。同样的 Agent 做小任务表现很好,做大任务就崩溃。区别在于任务规模是否超过了质量断崖。问题在分解策略:如何将大任务拆成 Agent 能有效处理的粒度,如何在拆分后保持整体一致性。第四章将讨论任务分解和上下文工程的具体方法。

"AI 总是重复犯同样的错"

常见归因:模型笨,记不住教训。

这是无记忆积累特征的直接后果。Agent 的记忆止于会话边界。上一次会话中你纠正过的错误、达成的共识、积累的项目理解,在新会话中完全归零。团队依赖口头传递和日常协作积累的经验,对 Agent 完全无效。第四章将讨论如何建立跨会话的知识持久化机制。

"用了 AI 之后 review 反而更累了"

常见归因:AI 代码风格差,不符合团队规范。

这是高吞吐特征的直接后果。核心矛盾在于产出速度超过了审查带宽。当一个 Agent 一天产出的代码量相当于一个程序员一周的产出,传统的人工 review 流程必然成为瓶颈。解法在于将验证的主体从人类转移到自动化系统。第三章和第五章将分别讨论单任务和多 Agent 场景下的自动化验证体系。

"代码库越来越乱但没人重构"

常见归因:团队纪律问题,需要加强代码规范。

这是无后果感知特征的直接后果。Agent 对代码的长期可维护性没有内在关注。它会忠实复制代码库中已有的模式,包括坏的模式。合并后的代码成为后续生成的参考集,形成自强化的质量下降循环。纪律和规范是对人类有效的治理手段,对 Agent 需要的是外部的质量治理机制:对抗式验证、信任边界和风险分级。这些内容将在第三章和第五章展开。

results matching ""

    No results matching ""