← 返回博客
AI Agent

AI 不是替代人,而是改变人的工作方式

2025-03-22

真正的问题不是"AI 能不能做这个工作",而是"有了 AI 之后,人应该做什么"。

一个认知偏差

每次和人讨论"用 AI 做 XX",对方的第一反应几乎总是两种之一:

  • 恐惧型:"那 XX 岗位是不是要被淘汰了?"
  • 轻视型:"AI 做的质量不行,还得人来。"

这两种反应都基于同一个错误的二分法:要么 AI 做,要么人做。

实际上,真正发生的事情不是"替代",而是——人做的事情从"执行"变成了"审判"

以工作流为例

传统方式(人类):约 12-15 小时

  1. 阅读需求文档(1-2 小时)
  2. 拆解功能点(2 小时)
  3. 识别风险(1 小时)
  4. 设计测试策略(2 小时)
  5. 编写测试用例(4-8 小时)
  6. 评审和修改(2 小时)

AI + 人类协作(约 2 小时)

  • AI 做:阅读需求 + 拆解功能点(10分钟)
  • AI 做:识别风险 + 设计测试策略(5分钟)
  • AI 做:生成测试用例初稿(15分钟)
  • 人类做:审查"待确认"项(30分钟)
  • 人类做:验证高风险项(20分钟)
  • 人类做:检查业务逻辑(30分钟)
  • 人类做:补充边界场景(20分钟)

人的工作从"生产者"变成了"审判者"。

人应该审判什么?

1. 解决"待确认"项

AI 遇到不确定的地方会标记【待确认】,而不是瞎猜。AI 擅长发现模糊性,人类擅长消除模糊性。

2. 高风险项验证

AI 的风险分级准确率大约 85%,每 20 个高风险标注里有 3 个是过度担忧。高风险项的误判代价太高,必须人工验证。

3. 业务逻辑准确性

AI 对"业务意图"的理解依赖于需求文档的表述质量。这种"文档里没写但大家都知道"的隐性知识,是人类审判的核心价值。

4. 边界场景补充

AI 善于在已知框架内做系统性穷举。但"框架外"的创造性边界场景——来自经验、直觉和记忆——仍然是人类的强项。

5. 可行性判断

AI 生成的方案可能在技术上完美但实际不可行(测试数据难以构造、环境不可用等)。这类判断需要了解团队的实际情况。

渐进信任模型

阶段 人工审查 信任 AI
第 1 个月 80% 20%
第 3 个月 40% 60%
第 6 个月 15% 85%

"80/20" 的新含义

AI 做 80% 的"量",人类做 20% 的"判"。但那 20% 的人类判断,产出了 80% 的质量增量。

AI 负责:系统性展开、格式标准化、繁重的文档生成、模式匹配

人类负责:业务意图的最终裁定、隐性知识补充、风险的上下文判断、创造性边界思考

对从业者意味着什么

你的角色从"内容生产者"升级为"质量守门人"。

以前重要 现在更重要
写作速度 审查效率
格式规范记忆 业务判断力
系统性覆盖能力 识别 AI 盲区的能力
从零构建文档 从 AI 初稿中找问题

不确定性管理:被忽视的关键能力

一个典型的失败模式:

  1. AI 在分析阶段标记了一个"待确认"项
  2. 人类没有及时确认就进入了下一阶段
  3. AI 在下一阶段基于"假设成立"继续推理
  4. 最终输出中,"不确定"变成了"确定"

人类审判者最重要的素质可能是:对 AI 的自信输出保持适度怀疑。

最后

写这个系列文章的过程中,我自己也在用 AI 辅助——它帮我理清思路、生成初稿、检查逻辑。但每一篇文章的核心论点、案例选择和价值判断,都是我做的。

AI 是一个强大的思考伙伴。但伙伴不是替身。


"AI Agent 工程化实践"系列完。

系列回顾: