AI大神Ilya最新访谈|中国“应试教育”报应在了美国模型上?
你敢信吗?那个拿著奥数金牌、刷榜无敌的美国大模型,骨子里其实是个被“应试教育”毁掉的做题家。它为什么修不好一个简单的Bug?为什么改了A又坏了B?因为它根本就不懂什么是编程,它只是在疯狂地讨好出题人,本质上,这是一种被算法奖励的“作弊”。 中国乃至东亚最被人诟病的“应试教育”弊端,竟然极其讽刺地在美国最顶尖的AI模型上完成了闭环。 我们都在嘲笑只会刷题的书呆子,结果回头一看,这不就是现在的 LLM吗?Ilya Sutskever,这位曾经的大力出奇迹信徒,在他最新的访谈里直接撕开了这层遮羞布:如果不改变底层逻辑,Scaling Law(缩放定律)在通用模型上可能真的走到头了。 并不是“懂了”,
你敢信吗?那个拿著奥数金牌、刷榜无敌的美国大模型,骨子里其实是个被“应试教育”毁掉的做题家。它为什么修不好一个简单的Bug?为什么改了A又坏了B?因为它根本就不懂什么是编程,它只是在疯狂地讨好出题人,本质上,这是一种被算法奖励的“作弊”。
中国乃至东亚最被人诟病的“应试教育”弊端,竟然极其讽刺地在美国最顶尖的AI模型上完成了闭环。
我们都在嘲笑只会刷题的书呆子,结果回头一看,这不就是现在的 LLM吗?Ilya Sutskever,这位曾经的大力出奇迹信徒,在他最新的访谈里直接撕开了这层遮羞布:如果不改变底层逻辑,Scaling Law(缩放定律)在通用模型上可能真的走到头了。
并不是“懂了”,只是“背过了”
Ilya 这次访谈的一个观点是关于“Reward Hacking”(奖励作弊)。为什么 AI 考试能拿满分,但在实际工程里是个废物?因为它所有的训练目标就是为了“通过考试”。
这就像一个刷了一万小时题库的所谓“学霸”,和一个只学了一百小时但真正理解原理的天才。前者知道所有标准答案,但只要题目稍微变个花样,它就崩了。目前的 AI 训练,本质上是在奖励这种“投机取巧”。它并没有建立起世界模型,它只是在概率的海洋里,拼命预测下一个能让你满意的 Token。这根本不是智能的涌现,这是“讨好型人格”的极致演绎。
没了“情绪”,AI 连袜子都穿不上
很多人还在意淫 AI 会产生自我意识,Ilya 却用一个神经科学的例子给我们泼了盆冷水:没有“情绪”或“价值函数”,智能就是个笑话。
想象一个脑部受损的病人,智力完好,四肢健全,但他早上起床会崩溃——因为他花了几个小时都决定不了该穿哪双袜子。为什么?人类之所以能秒做决定,是因为我们有“情绪(emotion)”,有偏好,有那个极其低功耗的“价值函数”。
现在的 AI 就是这个病人。它看似逻辑严密,实则患有严重的“选择困难症”。它没有直觉,没有喜恶,它给你输出答案不是因为它觉得这个“对”,而是因为它计算出这个答案最安全、最符合你的预期。一个没有“Gut Feeling”的智能,永远只能做人类的附庸,而不是伙伴。
通用模型的 Scaling Law 已死?
这可能是资本市场最不爱听的一句话,但我必须得说:通用大模型的 Scaling Law 可能真的结束了。
那个指望靠堆算力、堆数据、堆显卡就能通往 AGI的时代,正在落下帷幕。Ilya 曾经是 Scaling Law 的坚定鼓吹者,现在他却变身成了哲学家,开始谈论 System 2(慢思考)和 specialized models(专用模型)。这释放了一个极其危险的信号:大力不再出奇迹了。
但这不代表 AI 完了。恰恰相反,通用模型的黄昏,是专用模型的黎明。像特斯拉 FSD 这种垂直领域的 Scaling Law 才刚刚开始。未来不再属于那些试图做一个“全知全能神”的公司,而属于那些肯俯下身子,在医疗、法律、自动驾驶这些垂直领域里,把 AI 训练成顶尖专家的公司。
别把“工具”当“物种”
我们对 AI 最大的误解,就是总想把它塑造成人。我们给它起名“人工智能”,潜意识里就把它当成了人类智慧的某种延伸或模仿。
大错特错。AI 应该是一种完全平行的智慧形式。正如人类因为会使用工具而伟大,而不是因为会说话而伟大。我们总是痴迷于 AI 的语言能力,却忘了它本质上应该是我们大脑的“外挂”,而不是大脑的“克隆体”。
AGI 不应该是一个出厂即巅峰的成品,而应该是一个拥有极致学习能力的“学习者”。它不需要像人类一样有多愁善感,但它需要有从非确定性中寻找确定性的能力。我敢打赌,未来的 AI 绝不会长成我们现在想象的样子。它不会是一个有著人类弱点的硅基生命,而是一股在物理世界和数字世界穿梭的、甚至有些冷酷的效率洪流。
说到底,AI 现在的“智障”表现,不是因为它笨,而是因为我们人类太自恋,总想用我们那套蹩脚的“应试教育”去规训一个本该飞翔的物种。
这让我我想起庄子的一句话:
吾生也有涯,而知也无涯。以有涯随无涯,殆已!