Skip to main content

“But I have learned that building something significant requires engaging with the world as it is, not as you wish it to be.”

—— Freedom of Money, Zhao ChangPeng

如果数据分布足够丰富、模型容量足够强、优化足够到位,并且训练分布和目标任务分布足够接近,那么 next-token prediction 这个看似局部的目标,可能逼出相当强的知识建模与推理能力;但它并不自动保证最终任务正确性。

—— GPT 5.4 high 关于 “预测即智能” 的解释

在 AI 时代,衡量一个工程师水平,以及他是否真的在干活,标准不该再是代码输出量,而应转向 token 使用量,尤其是累计 token 使用量。

我越来越觉得,财富最核心的构成其实是知识,而不是资本。

真正创造财富的方式,是先创造新的知识,再把这些知识落实到产品里,让它能够被不断复制、持续分发。Elon 和那些真正的创业者,本质上就是推动财富被创造、被扩散的发动机。

一个人的精力,最好还是花在那些志同道合、带着使命感、几乎不可阻挡地想把事情做漂亮的人身上。

Elon Musk 怀有一种宏大的理想。类似 “解放全人类,解放被奴役的人们” 般的理想。

但在他这里,这套理想的版本是:他想用技术(technology)——他用的词正是 technology,而不是 science——为人类创造福祉。

—— The Book of Elon

“Given that, really really, really liking what you do is a big advantage.

——The Book of Elon

如果你真的热爱一件事,你对它的要求往往会非常高。

这种要求几乎是一种执拗,甚至带点偏执;也正因如此,你做出来的产品通常会非常出色。这就是你能与竞争对手拉开差距的最核心原因。

因为你投入的时间和精力,会比他们更多。如果你确信一件东西对你有用,而且它确实有用,那么在地球上,肯定也会有一群人和你想法一致。

The measure of success in my life is: “How many useful things can I get done?”

—The Book of Elon

数学推理能力是 LLM 通用推理能力的核心代理指标,直接关系到模型在科学研究、代码生成、定理证明等高价值场景的实用性。 这与人的思维能力很相似。因此,从某种程度上说,大模型的训练也是在研究人的学习过程。

—— 夜读 DeepSeekMath

能够实时获得反馈,本身就是一件并不常见的事。事实上,这才是自然界中极为罕见的情况。 因为很多人会忽略来自外部的激励信号,甚至会抗拒这些信号。如果一个人真的有自己的目标,他就应该非常清楚这些激励信号是什么样的,并且对它们足够敏感。但很多人在做事时,往往会因为种种原因而忽视这些激励信号。

关于为什么中间推理步骤能提升最终答案质量的一点思考:

  • 固定深度的 Transformer(不输出中间 token)本质上更像一个固定层数的电路——它所能处理的问题复杂度是有上界的。
  • 一旦允许输出中间 token,模型就变成了一个图灵完备的计算系统——理论上,只要给它足够多的中间步骤,就可以处理任意复杂的可计算问题。

因为任何算法都可以被分解为更小的原子单元,并通过逐步累积的方式实现,所以任何可计算的问题,本质上都可以用这种方法来解决。

从学习的角度看,更进一步的原因在于:模型在预训练阶段,已经见过这类推理过程。

比如,在多份材料中,往往会共同呈现一种通过多步骤分解来解决问题或生成回答的方式。因此,多步骤推理能够激活模型在预训练阶段习得的相关知识。

后续训练的作用,则是把这种在预训练中形成的能力进一步激发出来。