

五一期间,Karpathy发了一条很长的推文,还配上了一篇博客。
很多人可能在刷手机的时候划过去了,觉得又是一个大佬在说AI。
但我看完之后停了挺久。

先说说这个人。
Karpathy是谁,如果你在AI圈混了一段时间,这个名字应该不陌生。去年他造了一个词叫"Vibe coding",就是那种和AI对话、描述需求、快速生成代码的编程方式,这个词后来几乎刷遍了整个技术社区。再往前,他是特斯拉Autopilot的负责人,也是某个顶级AI实验室的联合创始人。
说这些不是要堆资历,而是想说——这个人说话是有分量的,他不是那种靠PPT吃饭的人。
就是这样一个人,在昨天发的内容里说了一句话:
"我从未像现在这样,感觉自己落后于编程"
这句话从他嘴里说出来,分量完全不一样。
这是他在红杉资本主办的AI Ascent 2026峰会上说的,那是一场更像是几个人坐下来聊真心话的对话,不是那种大会演讲。对话的内容他昨天整理成了推文和博客发出来,我把里面几个让我觉得重要的点,认真跟你说一说。

他讲的第一件事,是一个叫MenuGen的应用。
这个应用是他自己做的,功能很简单:你走进一家餐厅,菜单上没有图片,你拍一张照片,App会自动识别菜名,然后给每道菜配上图片,重新渲染成一个带图的菜单。
做这件事要什么?OCR识别文字、调图像生成接口、写前端渲染、部署上线、处理各种边缘情况。一套下来,几百行代码,花个两天时间,这是正常的软件开发流程。
但他后来发现了一件事。
把那张菜单照片直接扔给一个多模态大模型,告诉它"把每道菜的图片叠加到菜单上",模型直接输出了一张带图的菜单图片。
整个App,没了。
中间那一层软件,被"蒸发"了。
他用的就是这个词——蒸发。那个App存在的理由消失了,它是在旧的范式下工作的,"那个应用根本就不该存在"。

我看到这里的时候,脑子里闪过的第一个反应是:那我们现在正在做的很多东西,是不是也在这个"蒸发"的名单上。
这不是危言耸听,这是一个真实发生着的过程。
他还举了另一个例子。以前安装一个软件,开发者要写Shell脚本,要考虑不同操作系统、不同环境变量、各种依赖冲突,脚本越写越长,越写越脆。而现在,你可以用一个纯文字的Markdown文件,把安装步骤用自然语言写清楚,然后告诉用户"把这个给你的AI看",AI会自己读懂、自己适配你的环境、自己调试报错。
语言,变成了执行层。
这句话我觉得值得停一下想想。过去我们说"写代码",是在用机器能理解的语言告诉计算机做什么。而现在,你直接用人话说,计算机就能理解了。这中间省掉的那一层,就是过去几十年无数工程师花时间填补的鸿沟。
这个鸿沟,正在消失。
为了解释这件事,Karpathy用了一个他自己提出的框架
- Software 1.0:人写代码,每一行都是明确的指令
- Software 2.0:人准备数据和目标,让神经网络自己学出来,程序变成了模型的权重
- Software 3.0:人用自然语言写提示词,LLM作为解释器,上下文窗口就是内存,Prompt就是程序
他说,LLM现在更像是一台新型的计算机,不是旧软件的加速器,而是一种全新的计算基底。

这个框架我觉得很好用,但我想在这里加一个自己的理解。
从技术视角看这件事,其实更能感受到它的重量。Software 1.0到2.0,编程的方式变了,但程序员这个角色的核心没变——你还是在告诉机器"怎么做"。到了3.0,你开始告诉机器"做什么",怎么做的细节,机器自己填。
这不只是效率提升,这是一次角色的重新定义。
以前焦虑的是"我写的代码够不够好",现在开始焦虑的是"我提的需求够不够清晰"。这两种焦虑,背后需要的能力,完全不一样。
但这里有一个问题,一个让很多人困惑的问题。
同一个AI,可以连贯地重构一个十万行的代码库,可以发现零日安全漏洞,但也会在你问它"我的车停在50米外的洗车店,我该开车去还是走过去"的时候,认真地告诉你:建议步行,距离很近。
这不是段子,这是真实发生的事情。
Karpathy给这个现象起了一个名字:Jagged Intelligence,锯齿智能。
模型的能力曲线不是平滑上升的,而是像锯齿一样,某些领域陡然拔高,某些领域低得离谱
为什么会这样?他给了两个维度的解释:
第一个是可验证性
代码对不对,跑一下就知道。数学题算没算对,验证一下就清楚。这些领域有天然的反馈回路,适合强化学习,模型可以反复练习、反复校正,所以进步飞快。
但"该不该开车去洗车"这种问题,没有标准答案,没有验证机制,模型没法在这个方向上被强化训练,所以就停在那里了。
第二个是实验室经济学
这个角度更有意思。实验室的资源是有限的,他们会优先把算力和数据投入到经济价值高、市场规模大的方向。代码能力值钱,数学能力值钱,所以这些方向被大量训练。"怎么判断该不该开车去洗车"这种常识问题,没人付钱让实验室去专门训练,所以就缺失了。
他用了一个很形象的说法:你要么在模型的训练轨道上,像坐在高铁上飞驰;要么在轨道之外,拿着砍刀在丛林里开路。

这个框架对我来说最有价值的地方不是解释现象,而是它是一张产品机会地图。
哪些场景的AI能力已经在高铁上飞了,你进去就是在跟实验室硬拼;哪些场景还在丛林里,但你能构建出验证机制,你就有机会自己跑出来。
Karpathy说,创业者在垂直领域仍然有机会,关键就在这里——找到那些有真实数据、有反馈机制、但还没被大实验室覆盖的场景,自己建强化学习环境,自己做微调,这套逻辑在他看来依然成立。
说到这里,得回到他去年造的那个词:vibe coding。
去年他提出这个概念的时候,意思是一种轻盈的编程方式——不看代码细节,凭感觉和自然语言跟AI协作,描述你想要什么,AI帮你生成。这个词火了,火到他自己都没想到。
但今年他说了另一件事。
他说,2025年12月是一个分水岭。那段时间他用那些AI编程工具,突然发现生成出来的代码块不用怎么改了,越来越大、越来越连贯、越来越可靠。他开始把越来越多的工作直接交出去,自己变成了一个协调者,而不是一个写代码的人
他把这两件事区分开来:
- Vibe Coding抬高的是地板,让更多人能参与进来,哪怕不懂代码,也能做出一个能跑的东西
- Agentic Engineering抬高的是天花板,这是一种专业的工程能力,用AI做出高质量的、安全的、可维护的系统
这两件事看起来都是"用AI写代码",但背后需要的能力完全不一样。
从技术角度看这件事,这个差距其实更清晰。AI生成的代码"能跑",不代表它是对的。Karpathy举了一个他自己踩过的坑——他做的那个MenuGen应用,用户用谷歌账号注册,但用另一个平台购买积分。他的AI助手把这两个账号用邮箱地址关联起来,逻辑上说得通,代码也能跑,但这是错的,因为两个平台的邮箱可以不一样,用户买了积分可能根本收不到
这个错误,只有理解系统的人才能发现。AI不会主动告诉你这里有问题,它只是照你说的做了。
写过代码的人可能更容易理解这种感觉——代码通过了所有测试,功能也对,但架构一团糟,命名混乱,三个月后没人能维护。这种"能跑但不对"的东西,AI现在生产得很多。
所以真正的Agentic Engineering是什么?是你能在AI犯错的时候发现它犯错了,是你能设计出让AI不容易犯错的系统,是你在AI生成了一个方案之后,知道哪里需要推翻重来。
这不是技术能力,这是理解力。

对话的最后,主持人问了一个问题:当智能越来越廉价,什么还值得深度学习?
Karpathy引用了一条让他反复想起的推文,大意是:
你可以外包你的"思考",但你不能外包你的"理解"
这句话我觉得是整场对话里最值得停下来想的一句。
AI可以帮你生成方案,比较选项,执行流程,甚至替你写作和推理。但它没法替你判断:这件事值不值得做,这个结果对不对,这个风险能不能接受。
这种判断,来自理解,不来自思考。
思考是一个过程,可以被外包。理解是一种状态,是你真的知道一件事是什么、为什么、有什么边界。这个东西,目前没有办法被外包。
Karpathy说他自己也在成为认知瓶颈。他有一堆AI助手帮他跑任务,但指挥这些助手的,是他自己对"什么值得做、怎么做才对"的判断。这个判断受限于他的理解,而不是他的思考速度。
这件事放到更大的社会层面来看,其实有点让人不安。
我们的教育体系,大部分还在训练"思考"——记住知识点,解题,答题,考试。但如果思考这件事越来越可以被外包,那我们训练的东西,价值在哪里。
而"理解"是什么?是你读了很多东西之后,能把它们压缩成自己的认知地图,能在新的情境里判断什么是重要的,能发现AI给你的答案哪里不对。
这种能力,没有什么快速通道,只能靠大量的输入、思考、和真实的判断经验积累出来。
Karpathy说他热衷于建立个人知识库,把读过的东西持续沉淀,不断追问、交叉提问,让固定的知识生长出新的理解。这不是什么高科技,这是一种学习方式。
在一个智能越来越廉价的时代,真正稀缺的,是那种能把海量信息压缩成认知地图的人。

说了这么多,落到实处,我想说几个我自己觉得有用的判断。
1. 不要只问AI能帮你做什么,要问哪些东西因为AI而不该存在了
MenuGen的故事说明,有些产品的存在本身就是在填补一个鸿沟,而那个鸿沟现在已经不在了。如果你现在在做的东西,本质上是一个"中间层",那值得认真想想,这个中间层还需要存在多久。
2. 你的场景在不在模型的训练轨道上,这件事要搞清楚
锯齿智能的框架告诉我们,不是所有场景AI都能飞。在轨道上的,你用基础模型就能做很多事;在轨道外的,你要么自己建验证机制做微调,要么就接受AI在这个场景里会频繁出错。把这两种情况混淆,是很多AI产品踩坑的根源。
3. AI产品的设计,本质上是在管理一个随机性系统
传统软件是确定性的,输入A就输出B。AI产品不是,同样的输入可能输出不同的结果,而且有时候结果是错的。这要求产品设计从一开始就考虑:用户怎么知道AI出错了,出错了怎么纠正,哪些环节必须有人在回路里。这不是技术问题,这是产品设计问题。
4. 招聘和被招聘,标准都在变
Karpathy说,未来的招聘不应该是考算法题,而是给你一个真实的项目,看你能不能用AI把它做好、做安全、做得可维护。这个标准变化,对做产品的人也一样——你用AI做出来的东西,质量是你的责任,不是AI的责任。
5. 我们都在同一条起跑线上
我想用Karpathy那句话来结尾:
"我从未像现在这样,感觉自己落后于编程"
这句话第一次读,感觉是一种焦虑。但想想,这句话的另一面是什么——他还在跑,而且跑得很认真,认真到能感受到自己落后。
落后感,本身就是一种信号。它说明你还在这个赛道里,还在感知这个变化,还没有停下来。
真正危险的不是落后,是停止感知。
这个时代有一件很奇怪的事,就是它对所有人都是新的。没有人在AI这件事上有二十年的经验,没有人能说"我在这个领域摸爬滚打多年,什么都见过了"。大家都是第一次经历这个,差别只在于有没有在认真看、认真想。
不管你现在是什么身份,这个时刻对所有人都是公平的。
Karpathy说,未来最重要的竞争力,是理解。理解什么值得做,理解AI在哪里可信,理解这个系统在往哪里走。
这种理解,没有捷径,但也没有门槛。
它只需要你,认真对待每一次"我好像落后了"的感觉,然后停下来,想清楚为什么。

以上是我看完Karpathy这篇内容之后的一些思考,不一定全对,但觉得值得认真聊一聊。
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。




发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
UI设计精品必修课
已累计诞生 791 位幸运星
发表评论 为下方 1 条评论点赞,解锁好运彩蛋
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓