

未来属于能随着计算规模增长而持续变强的方法#
《The Bitter Lesson》 ↗ 举了棋类、计算机视觉和语音识别上的例子,凭借着人类先验知识的输入,某些方法能在短期取得优势。但是长期来看,这些「人工结构」都会被能够利用更大规模计算与数据的通用方法所击败。
长期来看,能利用好通用计算能力在 AI 上不断扩展的方法只有两种:
-
用更多数据和计算,在参数空间中进行更充分的学习
-
用更多计算,在解空间中进行更深/更广的搜索
学习和搜索,本质上都是利用计算在高维空间中逼近最优解,只是所处空间不同。
所以,请永远不要忘记我们出发的初心:我们不是去设计一个最强的人工结构跑出 SOTA,而是去设计一个能随着计算增长而高效改进的通用方法。
世界复杂到难以用简单的方法建模#
世界的动力学极其复杂,远超人类能够显式编码的程度。
在封闭和低维问题中,显式方法(如 PID、规则系统)依然有效,但在开放、复杂的任务中,这类方法往往难以扩展。人工的 switch-cases,手工特征,甚至是目前部分人尝试在深度学习里模拟「人类理解方式」的做法,往往难以扩展,或在规模增长后被更通用的方法取代。
我们应该教给 AI 的,不是建模世界,而是建模如何学习世界。AI 应该尽量减少对人类先验结构的依赖地发现特征与联系,而不是在我们的特征与联系下工作。因此,我们不应直接建模世界本身,而应构建能够从数据中自动学习表示与策略的通用方法。AI 的关键不在于执行我们已有的知识,而在于通过计算不断发现更好的表示与解。
在原文中,Sutton 的说法更加激进:
We have to learn the bitter lesson that building in how we think we think does not work in the long run.
AI 未来的发展,更像是将模型的约束,从显式的人类先验,逐步转移到由数据和计算驱动、能够自主学习的结构之中。