torygreen
大多数人低估了高端知识工作的存续时间。
他们看到AI压倒中级任务,便假设曲线会持续平滑上升。
事实并非如此。
因为“更难的任务”不仅仅是需要更高智商的相同任务。
AI已经在以下方面表现出色:
1. 模式匹配
2. 检索
3. 一阶合成
4. 流利度
5. 速度
这会消灭大量初级和中级工作。
任何看起来像“将输入转化为输出”的任务都变得廉价、快速且丰富。
但高端知识工作则处于不同的范畴。
它不是“产生答案”。
而是“决定下一步做什么”。
在顶端,工作不再是执行,而是面对不确定性进行决策——目标不明确,数据不完整,反馈循环缓慢,错误代价高昂。
我们所谓的“判断”并不神秘。
它是人类隐性执行的一系列具体操作,当前系统仍难以在没有大量支撑的情况下可靠完成:
1. 目标构建——
将模糊的目标转化为可测试的指标
(“我们在优化什么?”)
2. 因果建模——
区分相关性与杠杆
(“什么改变了什么?”)
3. 信息价值——
决定哪些信息不值得学习,因为太慢或太贵
4. 误差范围思维——
在范围内操作,而非点估计
(“我可能错多远?”)
5. 可逆性分析——
选择可以在出错时恢复的行动
6. 激励现实主义——
模拟人和机构的反应,而非他们应有的反应
7. 时序与排序——
选择行动的顺序,以避免过早放弃选择
8. 责任感——
承担下游后果,而不仅仅是输出
这也是为什么你可以得到“AI的出色输出”,但在
查看原文他们看到AI压倒中级任务,便假设曲线会持续平滑上升。
事实并非如此。
因为“更难的任务”不仅仅是需要更高智商的相同任务。
AI已经在以下方面表现出色:
1. 模式匹配
2. 检索
3. 一阶合成
4. 流利度
5. 速度
这会消灭大量初级和中级工作。
任何看起来像“将输入转化为输出”的任务都变得廉价、快速且丰富。
但高端知识工作则处于不同的范畴。
它不是“产生答案”。
而是“决定下一步做什么”。
在顶端,工作不再是执行,而是面对不确定性进行决策——目标不明确,数据不完整,反馈循环缓慢,错误代价高昂。
我们所谓的“判断”并不神秘。
它是人类隐性执行的一系列具体操作,当前系统仍难以在没有大量支撑的情况下可靠完成:
1. 目标构建——
将模糊的目标转化为可测试的指标
(“我们在优化什么?”)
2. 因果建模——
区分相关性与杠杆
(“什么改变了什么?”)
3. 信息价值——
决定哪些信息不值得学习,因为太慢或太贵
4. 误差范围思维——
在范围内操作,而非点估计
(“我可能错多远?”)
5. 可逆性分析——
选择可以在出错时恢复的行动
6. 激励现实主义——
模拟人和机构的反应,而非他们应有的反应
7. 时序与排序——
选择行动的顺序,以避免过早放弃选择
8. 责任感——
承担下游后果,而不仅仅是输出
这也是为什么你可以得到“AI的出色输出”,但在