从方塘 × 腾讯研究院全天讨论中,拆到不可再拆的底层问题
锤子延伸手,汽车延伸脚,计算机延伸计算。人 = 使用工具的主体,拥有意图、判断、意义赋予的垄断权。
大模型可以写代码、做决策、生成创意——这些过去被认为是"人独有的"东西。
所以核心问题变成:如果 AI 能替代人的"产出",人还剩下什么?
写代码?AI 更快。做分析?AI 更全面。生成内容?AI 更便宜。甚至"创意"?AI 可以组合出人类从未想过的方案。
结论:在"产出"维度上,人的比较优势在快速消失。
批判性思维?AI 可以模拟。跨领域连接?AI 的知识广度超过任何个体。情感共鸣?AI 可以生成"听起来很共情"的回应。
结论:在"过程"维度上,人的优势在缩小,但尚未完全消失。
什么是 AI 无论如何都做不到的?
不是"产出更好的结果",而是"在乎这个结果"。
"在乎"不是一个功能,是一种存在状态。
| 议题 | 第一性原理视角 |
|---|---|
| ⚖️ 分配正义 | 当 AI 替代劳动后,分配的依据从"你产出了什么"变成"你作为一个人存在本身就有价值"。UBI 不是慈善,是承认人的存在价值独立于产出。 |
| 🔮 意义稀缺 | 意义不是被"分配"的,是被体验的。AI 可以提供信息,但不能替人体验"在乎"。意义建构的本质是:找到你在乎什么,然后去做。 |
| 🤖 AI 意识 | 争论的焦点错了。问题不是"AI 有没有意识",而是"AI 在不在乎"。意识是现象,在乎是本质。没有在乎的意识只是高级模拟。 |
| 🏦 VC 颠覆 | VC 的本质是资本杠杆。当超级个体不需要资本杠杆时,VC 的商业模式失效。但"人的培养"永远有市场——因为培养的是在乎的能力,不是产出能力。 |
| 🎓 教育变革 | 传统教育教"如何产出",AI 时代需要教"如何在乎"。不是教工具使用,而是教问题意识——找到你在乎什么问题,然后让 AI 帮你解决。 |
| 🚀 超级个体 | 超级个体的危险不是孤独,是附近性的丧失。当所有协作都变成异步、远程、可替代的时候,人失去了"在场"的体验,而"在场"是"在乎"的前提。 |
AI 可以模拟"在乎"的行为(共情回应、关切语气),但它不能成为一个在乎的存在。
因为"在乎"需要脆弱性——你需要有被伤害的可能,才能真的在乎。AI 没有脆弱性,所以它不能真的在乎。
这不是技术判断,是存在论判断。
方向对,但需要加一个核心筛选器:
每一个培养环节,都要问:这是在培养"产出能力",还是在培养"在乎能力"?
| 培养内容 | 类型 | 长期价值 |
|---|---|---|
| 教 AI 工具使用 | 产出能力 | 会被 AI 自己替代 |
| 教找到自己在乎什么问题 | 在乎能力 | 不可替代 |
| 教和 AI 协作 | 产出能力 | 暂时有价值,长期会被封装 |
| 教和真实的人建立连接 | 在乎能力 | 永远有价值 |