强化学习烂透了,我们离AGI还要十年?|带你解读AI大神Karpathy重磅访谈
我们现在谈论的 AI Agent,90%是在假勤奋? 为什么 Andrej Karpathy最近那两个多小时、信息密度高到撑爆上下文窗口的访谈 如此重要?因为它给整个行业泼了一盆冷水:AGI 至少还要十年 。 这个判断不是空穴来风,而是基于他最熟悉的自动驾驶领域 。十年前,Waymo 看起来“再有两三年就行了” ;十年后的今天,我们发现它离真正的无人驾驶还差得远 。 AI 行业最大的幻觉,就是把 Demo 的成功错当成产品的胜利 。 99.9%的绝望:你永远看不了那部电影 Karpathy提出了一个“9 的难题” (The problem of nines) 。一个产品能用(Demo),和这个
我们现在谈论的 AI Agent,90%是在假勤奋?
为什么 Andrej Karpathy最近那两个多小时、信息密度高到撑爆上下文窗口的访谈 如此重要?因为它给整个行业泼了一盆冷水:AGI 至少还要十年 。
这个判断不是空穴来风,而是基于他最熟悉的自动驾驶领域 。十年前,Waymo 看起来“再有两三年就行了” ;十年后的今天,我们发现它离真正的无人驾驶还差得远 。
AI 行业最大的幻觉,就是把 Demo 的成功错当成产品的胜利 。
99.9%的绝望:你永远看不了那部电影
Karpathy提出了一个“9 的难题” (The problem of nines) 。一个产品能用(Demo),和这个产品可靠(Product),是两个世界。99% 的可靠性,和 99.99999% 的可靠性,差异是天壤之别 。要真正替代人类,比如自动驾驶,你需要的是“九个 9”的稳定性 。
这个差距就像我们下载一部电影,进度条卡在 99.9% 。你觉得马上就能看了,但没有最后那 0.01%,这部电影你就永远看不了 。
他宁愿现在的模型“不联网” 。因为大模型的核心机制是给你一个“最高概率的答案” ,它很难“知道自己不知道什么” 。当一个“高概率”的垃圾信源进来时,灾难就发生了。
吃垃圾:AI 现在的实现方式很“傻”
我们对 AI 技术的认知也有两个巨大的反常识误区。
第一个是“垃圾”。我们总觉得模型越大越好,动辄万亿参数。但Karpathy认为,现在的大模型都“太大了” 。它们之所以这么臃肿,是因为被迫吃进去了海量的“互联网垃圾数据” 。他甚至判断,一个真正足够智能的模型,可能只需要 100 亿(10B)参数就够了 。
第二个是“吸管”。我们都以为强化学习是 AI 的灵丹妙药。Karpathy的观点是:“强化学习其实很糟” (Reinforcement Learning is actually terrible) 。那为什么大家都在用?因为“其他东西更糟” 。他用了一个绝妙的比喻:现在的强化学习,就像“用一根吸管去吸取监督信号” (using a straw to suck a supervision signal) 。你试图用一种极其低效、带宽极窄的方式,去获取一个极其庞大、复杂的世界模型。
所以,别看现在的 AI 编码工具很热闹,Karpathy直言,这些工具对他这种大神来说“根本不可用” 。因为他的代码“过度抽象简洁”,而 AI 只会用网上学来的“生产规范”和“垃圾代码”来污染它 。
智能的本质是“遗忘”,不是记忆
这就引出了最核心的观点:我们对“智能”的定义可能从一开始就错了。我们总以为,智能是“记得多”。AI 把所有数据都记住了,就是智能。错了!
当前 AI 的实现方式是“傻”的,是“力大砖飞”。真正的智能,是“遗忘” 。
现在的模型“记忆力”太好了,能一字不差地背诵文章。这种对海量知识的“模糊回忆”(hazy recollection)反而成为一种负担。人类的遗忘反而是一种“特性优势”(feature not a bug),它逼迫我们去泛化。就像我们的大脑处理信息,靠的是“压缩”和“遗忘” 。你不会记得小学每天发生的琐事 ;几十年后,你记住的只是“一个美好的小学阶段”,或者“初恋的味道” 。大脑把细节全部遗忘,只留下了高度压缩的“经验”和“感觉” 。
这才是智能。
举个不恰当的例子。很多小孩背书快,靠的不是逐字记忆,而是“图片记忆法” 。我把整页课文当成一张“快照” (snapshot) 拍下来,记住的是它的结构、段落分布 ,而不是文字本身。
这恰好引出了Karpathy盛赞 DeepSeek OCR 的原因 。DeepSeek OCR 做的不是简单的文字识别,它做的是“压缩” 。它用处理图像的方式,把 1000 个文字 Token 压缩成了极少数的图像 Token,同时保留了 97% 的信息准确度 。这才是“一图胜千言” 。这也让Karpathy得出一个推论:也许我们未来的模型,应该彻底转向“用纯图像来训练”,而不是现在的纯文本 。
召唤“幽灵”,而非制造“智能”
所以,Karpathy的“幽灵论”到底是什么意思?
他说,我们不是在“制造一只动物”(Animal),而是在“召唤一个幽灵”(Ghost)。我理解“Animal”是某种硅基生物,是能独立演化的物种 。而“幽灵”,是对人类已有知识和智能的一种“映射”和“复制” 。我们现在做的所有事——用垃圾数据喂它、用吸管训练它、用蛮力堆参数——都是在试图复刻这个幽灵。
但这也许不是终点。我更倾向于认为,这个“幽灵”真正的价值,在于它在映射人类智能的过程中,能够“涌现”出我们人类自己都不具备的智能 。
讽刺的是,大模型被训练出来寻找“最高概率的答案” ,但它自己却很难“知道自己不知道什么” 。或许Karpathy是对的,我们早就该把模型的网线拔了 。
真正的智能,是压缩和遗忘。
【订阅JustSayAI早晚报】
🌈新朋友!订阅「JustSayAI早晚报」· 每日两封 · 一键听报
🌟老朋友!加入会员获取JustSayAI早晚报+深度研报+文字专栏
【主播小红书】:
【关注频道】:
📱商务合作/听友群:justsayai666