Candlest 的博客

Back

公常路第一千早爱音Blur image

未来属于能随着计算规模增长而持续变强的方法#

《The Bitter Lesson》 举了棋类、计算机视觉和语音识别上的例子,凭借着人类先验知识的输入,某些方法能在短期取得优势。但是长期来看,这些「人工结构」都会被能够利用更大规模计算与数据的通用方法所击败。

长期来看,能利用好通用计算能力在 AI 上不断扩展的方法只有两种:

  • 用更多数据和计算,在参数空间中进行更充分的学习

  • 用更多计算,在解空间中进行更深/更广的搜索

学习和搜索,本质上都是利用计算在高维空间中逼近最优解,只是所处空间不同。

所以,请永远不要忘记我们出发的初心:我们不是去设计一个最强的人工结构跑出 SOTA,而是去设计一个能随着计算增长而高效改进的通用方法。

世界复杂到难以用简单的方法建模#

世界的动力学极其复杂,远超人类能够显式编码的程度。

在封闭和低维问题中,显式方法(如 PID、规则系统)依然有效,但在开放、复杂的任务中,这类方法往往难以扩展。人工的 switch-cases,手工特征,甚至是目前部分人尝试在深度学习里模拟「人类理解方式」的做法,往往难以扩展,或在规模增长后被更通用的方法取代。

我们应该教给 AI 的,不是建模世界,而是建模如何学习世界。AI 应该尽量减少对人类先验结构的依赖地发现特征与联系,而不是在我们的特征与联系下工作。因此,我们不应直接建模世界本身,而应构建能够从数据中自动学习表示与策略的通用方法。AI 的关键不在于执行我们已有的知识,而在于通过计算不断发现更好的表示与解。

在原文中,Sutton 的说法更加激进:

We have to learn the bitter lesson that building in how we think we think does not work in the long run.

AI 未来的发展,更像是将模型的约束,从显式的人类先验,逐步转移到由数据和计算驱动、能够自主学习的结构之中。

从《The Bitter Lesson》开始
https://blog.candlest.cc/blog/ai/read-the-bitter-lesson
Author Candlest
Published at 2026年4月6日