这是一篇没写完的文章。

快速发展的 AI,把手工编程扫入历史的垃圾桶。程序员也只是工场的女织工,码头的纤夫罢了。

但是,

AI 能够代替的东西,暂时没有那么多。 泡沫存在, AI 的发展速度 < 我们期望 AI 发展的速度。

为了不作为只会对着 AI 这一台老虎机念动咒语而失去从 junior 到 senior 进阶机会的技术人员,写这篇文章记录自己的想法。

快速发展的 AI

AI 基础模型的发展速度之快,基本几个月一个周期:原本正确的事情变得错误;原本不可为的东西变得可为。

以上下文为例,在 GPT3.5 时代,面对 AI 极小的上下文窗口 RAG 还有很重要的意义。而今面对模型小则 200k 大则 1M 的上下文意义越来越小。

线性/稀疏注意力的使用让上下文越来越廉价。PageIndex,乃至直接让 AI 管理文件的 Memory 方式变得流行。

Warning

和一位做政府项目的长辈聊天,RAG + 小模型在政府和企业这种强保密性场景下的「数据治理」仍然是主流。 此处的观点需要被迭代。

AI 写代码的能力在不断提高,接入 MCP,AI 能够使用 IDA-Pro 打败很多逆向初学者,甚至是解决很多实际问题。建立 Agent 系统,AI 在 Feedback Loop 中不断地扩展能力边界。

这一场革命已经无法回头了。

我们不再需要初学者,我们只需要一种人:能够提出问题,监督 AI 解决问题的人。

如果放在更加抽象的层:我们需要的是能给 AI 提供 正确 Feedback 的人,帮助 AI 看到它看不到的东西。

正如 jyy 所言1,我们也许只需要给 AI 「编写字典」,AI 就能替代目前世界上 90%+ 的手工劳动。

这一切都依赖于 Scale-Law 2的假定:假如我们能够不断给 AI 提供有效的数据,同时能够不断地提高模型的参数量和计算量,模型就能不断进步。

至少在目前,Scale-Law 一直有效。我们还没有碰到 Scale 的天花板,也就是说,在可预期的未来,模型的能力只会不断提升。

围绕基础模型的工作,比如 AI Infra,比如 AI Agent,比如具身智能,这些工作会长期存在,直到AI 能够把所有人都替代掉

AI 真的能替代一切吗?

在金融中,“泡沫”(financial bubble)指的是某种资产价格长期、明显地偏离其内在价值,并主要依靠市场情绪和投机推动上涨的现象

AI 并非没有内在价值,只是目前我们期望 AI 发展的速度大于AI 的发展速度。

做大模型的公司千方百计地想要渲染 AI 对软件业的颠覆式改变:无论是 OpenAI 的「浏览器」,还是 Anthropic 的 「编译器」,其实都只是 demo,概念性的玩具。

尽管 CTF 的比赛已经能基本被 Agent 打爆,但是高级的安全知识并不会自动进入你的脑子里。一个连堆栈内存分配都不太熟悉的人(比如我),是很难用 AI 解出 pwn 题目的。

长程 RL,长期记忆,持续学习……都是很重要但尚未解决的问题。

AI 远远没有能够成为「同事」的能力,只是一个「实习生」。

Footnotes

  1. 硅基天启:灭世之技术推演 [ChinaSys’25 Winter]

  2. Neural scaling law,最早由 OpenAI 于 2020 提出。模型的最终性能主要与计算量 ,模型参数量 和数据大小 三者相关,而与模型的具体结构(层数/深度/宽度)基本无关。