前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

一、全文速览图

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

五一期间,Karpathy发了一条很长的推文,还配上了一篇博客。

很多人可能在刷手机的时候划过去了,觉得又是一个大佬在说AI。

但我看完之后停了挺久。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

二、Karpathy是谁,他说了什么

先说说这个人。

Karpathy是谁,如果你在AI圈混了一段时间,这个名字应该不陌生。去年他造了一个词叫"Vibe coding",就是那种和AI对话、描述需求、快速生成代码的编程方式,这个词后来几乎刷遍了整个技术社区。再往前,他是特斯拉Autopilot的负责人,也是某个顶级AI实验室的联合创始人。

说这些不是要堆资历,而是想说——这个人说话是有分量的,他不是那种靠PPT吃饭的人。

就是这样一个人,在昨天发的内容里说了一句话:

"我从未像现在这样,感觉自己落后于编程"

这句话从他嘴里说出来,分量完全不一样。

这是他在红杉资本主办的AI Ascent 2026峰会上说的,那是一场更像是几个人坐下来聊真心话的对话,不是那种大会演讲。对话的内容他昨天整理成了推文和博客发出来,我把里面几个让我觉得重要的点,认真跟你说一说。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

三、软件正在被"蒸发"

他讲的第一件事,是一个叫MenuGen的应用。

这个应用是他自己做的,功能很简单:你走进一家餐厅,菜单上没有图片,你拍一张照片,App会自动识别菜名,然后给每道菜配上图片,重新渲染成一个带图的菜单。

做这件事要什么?OCR识别文字、调图像生成接口、写前端渲染、部署上线、处理各种边缘情况。一套下来,几百行代码,花个两天时间,这是正常的软件开发流程。

但他后来发现了一件事。

把那张菜单照片直接扔给一个多模态大模型,告诉它"把每道菜的图片叠加到菜单上",模型直接输出了一张带图的菜单图片。

整个App,没了。

中间那一层软件,被"蒸发"了。

他用的就是这个词——蒸发。那个App存在的理由消失了,它是在旧的范式下工作的,"那个应用根本就不该存在"。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

我看到这里的时候,脑子里闪过的第一个反应是:那我们现在正在做的很多东西,是不是也在这个"蒸发"的名单上。

这不是危言耸听,这是一个真实发生着的过程。

他还举了另一个例子。以前安装一个软件,开发者要写Shell脚本,要考虑不同操作系统、不同环境变量、各种依赖冲突,脚本越写越长,越写越脆。而现在,你可以用一个纯文字的Markdown文件,把安装步骤用自然语言写清楚,然后告诉用户"把这个给你的AI看",AI会自己读懂、自己适配你的环境、自己调试报错。

语言,变成了执行层。

这句话我觉得值得停一下想想。过去我们说"写代码",是在用机器能理解的语言告诉计算机做什么。而现在,你直接用人话说,计算机就能理解了。这中间省掉的那一层,就是过去几十年无数工程师花时间填补的鸿沟。

这个鸿沟,正在消失。

四、三代软件,一次范式转移

为了解释这件事,Karpathy用了一个他自己提出的框架

  1. Software 1.0:人写代码,每一行都是明确的指令
  2. Software 2.0:人准备数据和目标,让神经网络自己学出来,程序变成了模型的权重
  3. Software 3.0:人用自然语言写提示词,LLM作为解释器,上下文窗口就是内存,Prompt就是程序

他说,LLM现在更像是一台新型的计算机,不是旧软件的加速器,而是一种全新的计算基底。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

这个框架我觉得很好用,但我想在这里加一个自己的理解。

从技术视角看这件事,其实更能感受到它的重量。Software 1.0到2.0,编程的方式变了,但程序员这个角色的核心没变——你还是在告诉机器"怎么做"。到了3.0,你开始告诉机器"做什么",怎么做的细节,机器自己填。

这不只是效率提升,这是一次角色的重新定义。

以前焦虑的是"我写的代码够不够好",现在开始焦虑的是"我提的需求够不够清晰"。这两种焦虑,背后需要的能力,完全不一样。

五、锯齿智能:AI为什么又天才又蠢

但这里有一个问题,一个让很多人困惑的问题。

同一个AI,可以连贯地重构一个十万行的代码库,可以发现零日安全漏洞,但也会在你问它"我的车停在50米外的洗车店,我该开车去还是走过去"的时候,认真地告诉你:建议步行,距离很近。

这不是段子,这是真实发生的事情。

Karpathy给这个现象起了一个名字:Jagged Intelligence,锯齿智能。

模型的能力曲线不是平滑上升的,而是像锯齿一样,某些领域陡然拔高,某些领域低得离谱

为什么会这样?他给了两个维度的解释:

第一个是可验证性

代码对不对,跑一下就知道。数学题算没算对,验证一下就清楚。这些领域有天然的反馈回路,适合强化学习,模型可以反复练习、反复校正,所以进步飞快。

但"该不该开车去洗车"这种问题,没有标准答案,没有验证机制,模型没法在这个方向上被强化训练,所以就停在那里了。

第二个是实验室经济学

这个角度更有意思。实验室的资源是有限的,他们会优先把算力和数据投入到经济价值高、市场规模大的方向。代码能力值钱,数学能力值钱,所以这些方向被大量训练。"怎么判断该不该开车去洗车"这种常识问题,没人付钱让实验室去专门训练,所以就缺失了。

他用了一个很形象的说法:你要么在模型的训练轨道上,像坐在高铁上飞驰;要么在轨道之外,拿着砍刀在丛林里开路。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

这个框架对我来说最有价值的地方不是解释现象,而是它是一张产品机会地图。

哪些场景的AI能力已经在高铁上飞了,你进去就是在跟实验室硬拼;哪些场景还在丛林里,但你能构建出验证机制,你就有机会自己跑出来。

Karpathy说,创业者在垂直领域仍然有机会,关键就在这里——找到那些有真实数据、有反馈机制、但还没被大实验室覆盖的场景,自己建强化学习环境,自己做微调,这套逻辑在他看来依然成立。

六、Vibe Coding之后,天花板在哪里

说到这里,得回到他去年造的那个词:vibe coding。

去年他提出这个概念的时候,意思是一种轻盈的编程方式——不看代码细节,凭感觉和自然语言跟AI协作,描述你想要什么,AI帮你生成。这个词火了,火到他自己都没想到。

但今年他说了另一件事。

他说,2025年12月是一个分水岭。那段时间他用那些AI编程工具,突然发现生成出来的代码块不用怎么改了,越来越大、越来越连贯、越来越可靠。他开始把越来越多的工作直接交出去,自己变成了一个协调者,而不是一个写代码的人

他把这两件事区分开来:

  1. Vibe Coding抬高的是地板,让更多人能参与进来,哪怕不懂代码,也能做出一个能跑的东西
  2. Agentic Engineering抬高的是天花板,这是一种专业的工程能力,用AI做出高质量的、安全的、可维护的系统

这两件事看起来都是"用AI写代码",但背后需要的能力完全不一样。

从技术角度看这件事,这个差距其实更清晰。AI生成的代码"能跑",不代表它是对的。Karpathy举了一个他自己踩过的坑——他做的那个MenuGen应用,用户用谷歌账号注册,但用另一个平台购买积分。他的AI助手把这两个账号用邮箱地址关联起来,逻辑上说得通,代码也能跑,但这是错的,因为两个平台的邮箱可以不一样,用户买了积分可能根本收不到

这个错误,只有理解系统的人才能发现。AI不会主动告诉你这里有问题,它只是照你说的做了。

写过代码的人可能更容易理解这种感觉——代码通过了所有测试,功能也对,但架构一团糟,命名混乱,三个月后没人能维护。这种"能跑但不对"的东西,AI现在生产得很多。

所以真正的Agentic Engineering是什么?是你能在AI犯错的时候发现它犯错了,是你能设计出让AI不容易犯错的系统,是你在AI生成了一个方案之后,知道哪里需要推翻重来。

这不是技术能力,这是理解力。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

七、人类剩下什么

对话的最后,主持人问了一个问题:当智能越来越廉价,什么还值得深度学习?

Karpathy引用了一条让他反复想起的推文,大意是:

你可以外包你的"思考",但你不能外包你的"理解"

这句话我觉得是整场对话里最值得停下来想的一句。

AI可以帮你生成方案,比较选项,执行流程,甚至替你写作和推理。但它没法替你判断:这件事值不值得做,这个结果对不对,这个风险能不能接受。

这种判断,来自理解,不来自思考。

思考是一个过程,可以被外包。理解是一种状态,是你真的知道一件事是什么、为什么、有什么边界。这个东西,目前没有办法被外包。

Karpathy说他自己也在成为认知瓶颈。他有一堆AI助手帮他跑任务,但指挥这些助手的,是他自己对"什么值得做、怎么做才对"的判断。这个判断受限于他的理解,而不是他的思考速度。

这件事放到更大的社会层面来看,其实有点让人不安。

我们的教育体系,大部分还在训练"思考"——记住知识点,解题,答题,考试。但如果思考这件事越来越可以被外包,那我们训练的东西,价值在哪里。

而"理解"是什么?是你读了很多东西之后,能把它们压缩成自己的认知地图,能在新的情境里判断什么是重要的,能发现AI给你的答案哪里不对。

这种能力,没有什么快速通道,只能靠大量的输入、思考、和真实的判断经验积累出来。

Karpathy说他热衷于建立个人知识库,把读过的东西持续沉淀,不断追问、交叉提问,让固定的知识生长出新的理解。这不是什么高科技,这是一种学习方式。

在一个智能越来越廉价的时代,真正稀缺的,是那种能把海量信息压缩成认知地图的人。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

八、给做产品的人,几个判断

说了这么多,落到实处,我想说几个我自己觉得有用的判断。

1. 不要只问AI能帮你做什么,要问哪些东西因为AI而不该存在了

MenuGen的故事说明,有些产品的存在本身就是在填补一个鸿沟,而那个鸿沟现在已经不在了。如果你现在在做的东西,本质上是一个"中间层",那值得认真想想,这个中间层还需要存在多久。

2. 你的场景在不在模型的训练轨道上,这件事要搞清楚

锯齿智能的框架告诉我们,不是所有场景AI都能飞。在轨道上的,你用基础模型就能做很多事;在轨道外的,你要么自己建验证机制做微调,要么就接受AI在这个场景里会频繁出错。把这两种情况混淆,是很多AI产品踩坑的根源。

3. AI产品的设计,本质上是在管理一个随机性系统

传统软件是确定性的,输入A就输出B。AI产品不是,同样的输入可能输出不同的结果,而且有时候结果是错的。这要求产品设计从一开始就考虑:用户怎么知道AI出错了,出错了怎么纠正,哪些环节必须有人在回路里。这不是技术问题,这是产品设计问题。

4. 招聘和被招聘,标准都在变

Karpathy说,未来的招聘不应该是考算法题,而是给你一个真实的项目,看你能不能用AI把它做好、做安全、做得可维护。这个标准变化,对做产品的人也一样——你用AI做出来的东西,质量是你的责任,不是AI的责任。

5. 我们都在同一条起跑线上

我想用Karpathy那句话来结尾:

"我从未像现在这样,感觉自己落后于编程"

这句话第一次读,感觉是一种焦虑。但想想,这句话的另一面是什么——他还在跑,而且跑得很认真,认真到能感受到自己落后。

落后感,本身就是一种信号。它说明你还在这个赛道里,还在感知这个变化,还没有停下来。

真正危险的不是落后,是停止感知。

这个时代有一件很奇怪的事,就是它对所有人都是新的。没有人在AI这件事上有二十年的经验,没有人能说"我在这个领域摸爬滚打多年,什么都见过了"。大家都是第一次经历这个,差别只在于有没有在认真看、认真想。

不管你现在是什么身份,这个时刻对所有人都是公平的。

Karpathy说,未来最重要的竞争力,是理解。理解什么值得做,理解AI在哪里可信,理解这个系统在往哪里走。

这种理解,没有捷径,但也没有门槛。

它只需要你,认真对待每一次"我好像落后了"的感觉,然后停下来,想清楚为什么。

前特斯拉AI负责人:软件正在蒸发,普通人该怎么办?

以上是我看完Karpathy这篇内容之后的一些思考,不一定全对,但觉得值得认真聊一聊。

收藏 1
点赞 14

复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。