Prediction Machines
Ajay Agrawal · 2026-03-25
Prediction Machines · X光报告
NAPKIN | 一句话精华
AI做的只有一件事:降低预测的成本——当预测变便宜时,决策的瓶颈从"信息"转移到"判断",而判断是人类最后的护城河。
SKELETON | 骨架结构
因果链
AI技术进步
→ 预测成本大幅下降(类比:电的成本↓ → 电的应用从照明扩展到一切)
→ 预测渗透到之前不用预测的领域
→ 决策被分解为:数据收集 → 预测 → 判断 → 行动 → 结果 → 反馈
→ AI承担预测环节,人类专注判断环节
→ 判断 = 确定目标函数(你想优化什么?)+ 评估犯错的代价
→ 判断的质量取决于价值观、经验、情境理解
→ 当预测几乎免费时,判断成为最大的竞争优势
→ 个人和组织的核心能力从"获取信息"转向"做出好判断"
三大支柱
支柱一:预测的经济学
预测是"利用已有信息推断缺失信息"的过程。天气预报是预测,医学诊断是预测,贷款审批也是预测。AI把预测从昂贵的专家活动变成几乎免费的商品。经济学定律:当某种投入的成本暴跌,它的使用量会激增,它的替代品贬值,它的互补品升值。
支柱二:决策分解
Agrawal的核心方法论:把任何决策分解为六步(数据→预测→判断→行动→结果→反馈),然后问:哪些步骤AI做得更好?哪些步骤必须人来做?答案几乎总是:AI做预测,人做判断。判断=决定犯I型错误(false positive)和II型错误(false negative)各自的代价——这取决于你的价值观和目标。
支柱三:判断作为新护城河
当预测免费时,竞争优势不在于谁拥有更好的预测模型,而在于谁拥有更好的判断框架。判断包括:(1)明确目标函数(你到底要什么?),(2)评估不同错误类型的非对称代价,(3)在模糊和不确定中做出承诺。这恰好是AI最弱的环节——因为判断涉及价值观,而价值观不能从数据中学习。
DISSECTION | 解剖洞见
洞见一:预测便宜了,但你知道自己想要什么吗?
Agrawal的精妙洞察:AI时代最重要的技能不是"学会用AI",而是"知道自己想要什么"。当预测几乎免费时——AI能告诉你"如果你做X,有80%概率发生Y"——瓶颈转移到:Y是你真正想要的吗?Y1比Y2好在哪里?你愿意为Y承担多大的代价?这些是判断问题,需要清晰的价值观。
洞见二:I型错误vs II型错误——非对称代价
Agrawal指出决策的核心是评估两种错误的非对称代价。自动驾驶把正常行人识别为障碍(I型错误/假阳性)→急刹车→小代价。把真正障碍识别为正常(II型错误/假阴性)→撞人→巨大代价。所以系统应该偏向I型错误。
洞见三:数据作为互补品——你缺的不是数据
当预测成本下降时,数据的价值上升,因为数据是预测的互补品。但Agrawal指出一个陷阱:不是所有数据都有等价值——你需要的是训练集中缺失的数据类型。已有大量同质数据的边际价值很低,缺失类型的数据才珍贵。
洞见四:人机分工的重新定义
Agrawal的结论:AI时代最有价值的人类能力是判断——明确目标、权衡代价、在不确定性中承诺。最容易被替代的是预测(模式识别、信息处理、方案生成)。讽刺的是:精英人才过去之所以值钱,恰恰因为他们的预测能力强——而这正是AI最先接管的部分。
SOUL | 灵魂拷问
剩下的、AI做不了的、真正珍贵的——是判断:我到底想要什么?这个情绪值不值得被完整体验?这个不可逆的承诺值不值得做?==
STRUCTURE MAP | 结构图
graph TD
A["AI技术进步"] --> B["预测成本↓↓↓"]
B --> C["预测用量↑↑↑"]
B --> D["预测性劳动贬值"]
B --> E["判断成为稀缺资源"]
F["决策分解"] --> G["数据收集"]
G --> H["预测(AI)"]
H --> I["判断(人类)"]
I --> J["行动"]
J --> K["结果"]
K --> L["反馈"]
L --> G
I --> M{"判断质量?"}
M -->|"目标函数清晰"| N["好决策"]
M -->|"目标函数模糊"| O["预测精确但方向错误"]
style B fill:#3498db,color:#fff
style E fill:#e74c3c,color:#fff
style I fill:#27ae60,color:#fff
style N fill:#2ecc71,color:#fff
style O fill:#e67e22,color:#fff