AI 不是替代人,而是改变人的工作方式
2025-03-22
真正的问题不是"AI 能不能做这个工作",而是"有了 AI 之后,人应该做什么"。
一个认知偏差
每次和人讨论"用 AI 做 XX",对方的第一反应几乎总是两种之一:
- 恐惧型:"那 XX 岗位是不是要被淘汰了?"
- 轻视型:"AI 做的质量不行,还得人来。"
这两种反应都基于同一个错误的二分法:要么 AI 做,要么人做。
实际上,真正发生的事情不是"替代",而是——人做的事情从"执行"变成了"审判"。
以工作流为例
传统方式(人类):约 12-15 小时
- 阅读需求文档(1-2 小时)
- 拆解功能点(2 小时)
- 识别风险(1 小时)
- 设计测试策略(2 小时)
- 编写测试用例(4-8 小时)
- 评审和修改(2 小时)
AI + 人类协作(约 2 小时)
- AI 做:阅读需求 + 拆解功能点(10分钟)
- AI 做:识别风险 + 设计测试策略(5分钟)
- AI 做:生成测试用例初稿(15分钟)
- 人类做:审查"待确认"项(30分钟)
- 人类做:验证高风险项(20分钟)
- 人类做:检查业务逻辑(30分钟)
- 人类做:补充边界场景(20分钟)
人的工作从"生产者"变成了"审判者"。
人应该审判什么?
1. 解决"待确认"项
AI 遇到不确定的地方会标记【待确认】,而不是瞎猜。AI 擅长发现模糊性,人类擅长消除模糊性。
2. 高风险项验证
AI 的风险分级准确率大约 85%,每 20 个高风险标注里有 3 个是过度担忧。高风险项的误判代价太高,必须人工验证。
3. 业务逻辑准确性
AI 对"业务意图"的理解依赖于需求文档的表述质量。这种"文档里没写但大家都知道"的隐性知识,是人类审判的核心价值。
4. 边界场景补充
AI 善于在已知框架内做系统性穷举。但"框架外"的创造性边界场景——来自经验、直觉和记忆——仍然是人类的强项。
5. 可行性判断
AI 生成的方案可能在技术上完美但实际不可行(测试数据难以构造、环境不可用等)。这类判断需要了解团队的实际情况。
渐进信任模型
| 阶段 | 人工审查 | 信任 AI |
|---|---|---|
| 第 1 个月 | 80% | 20% |
| 第 3 个月 | 40% | 60% |
| 第 6 个月 | 15% | 85% |
"80/20" 的新含义
AI 做 80% 的"量",人类做 20% 的"判"。但那 20% 的人类判断,产出了 80% 的质量增量。
AI 负责:系统性展开、格式标准化、繁重的文档生成、模式匹配
人类负责:业务意图的最终裁定、隐性知识补充、风险的上下文判断、创造性边界思考
对从业者意味着什么
你的角色从"内容生产者"升级为"质量守门人"。
| 以前重要 | 现在更重要 |
|---|---|
| 写作速度 | 审查效率 |
| 格式规范记忆 | 业务判断力 |
| 系统性覆盖能力 | 识别 AI 盲区的能力 |
| 从零构建文档 | 从 AI 初稿中找问题 |
不确定性管理:被忽视的关键能力
一个典型的失败模式:
- AI 在分析阶段标记了一个"待确认"项
- 人类没有及时确认就进入了下一阶段
- AI 在下一阶段基于"假设成立"继续推理
- 最终输出中,"不确定"变成了"确定"
人类审判者最重要的素质可能是:对 AI 的自信输出保持适度怀疑。
最后
写这个系列文章的过程中,我自己也在用 AI 辅助——它帮我理清思路、生成初稿、检查逻辑。但每一篇文章的核心论点、案例选择和价值判断,都是我做的。
AI 是一个强大的思考伙伴。但伙伴不是替身。
"AI Agent 工程化实践"系列完。
系列回顾:
- 第一篇:用"五组件架构"构建你的 AI Agent 系统
- 第二篇:当 Prompt 工程遇上软件工程
- 第三篇:AI Agent 的"技能包"设计哲学
- 第四篇:多 Agent 对抗——用"竞争假设"提升 AI 可靠性
- 第五篇:AI 不是替代人,而是改变人的工作方式