字节Seed用化学头脑搞AI,,, ,,把DeepSeek-R1的脑回路拆成了分子结构
2026-03-01 19:35:10

闻乐 发自 凹非寺量子位 |远景新能源有限公司 公众号 QbitAI

字节Seed都最先用化学头脑搞大模子了——

深度推理是共价键、自我反思是氢键、自我探索是范德华力??????!

古板的大模子长头脑链推理基本把AI的思索历程等同于线性结构 。 。。。。。

但许多情形下,,, ,,后续的一个要害结论,,, ,,可能需要回过头去验证早早提出的假设 。 。。。。。

CoT把这种非线性的依赖关系忽略了 。 。。。。。

字节Seed在论文《The Molecular Structure of Thought》中首次给大模子的长链头脑界说了分子式结构 。 。。。。。

在这种分子拓扑中,,, ,,三种键是怎么相互配合的??????

好的推理像分子结构

团队把DeepSeek-R1、gpt-OSS等强推理模子的长链头脑拆成一步一步的,,, ,,然后给每一步之间的“跳跃”打上标签 。 。。。。。

打完标签发明,,, ,,所有有用的长链头脑里,,, ,,着实就三种基础行动往返组合 。 。。。。。

第一种叫深度推理,,, ,,像共价键一样结实 。 。。。。。

通俗来说就是类似“由于A以是B,,, ,,由于B以是C”的硬逻辑推进 。 。。。。。

团队在语义空间里做了一个很形象的量化剖析,,, ,,把模子的每一步思索都当成一个点,,, ,,看这些点最后会散成多大一个圈 。 。。。。。

圈子越小,,, ,,说明模子越没跑题,,, ,,思索越聚焦 。 。。。。。

效果发明,,, ,,加上深度推理之后,,, ,,这个散点圈直接缩水22% 。 。。。。。

深度推理确实起到了收束杂念、锁定焦点逻辑的要害作用 。 。。。。。

第二种叫自我反思,,, ,,像氢键一样有弹性但稳固 。 。。。。。

类似于“等等,,, ,,我适才那步是不是想错了”“让我重新检查一下前面的假设”,,, ,,能把后面的思索拐回来跟前面的节点呼应上,,, ,,形成一种折叠感 。 。。。。。

团队测了模子自我反思时的头脑轨迹,,, ,,把每一步思索都看针言义空间里的一个点,,, ,,然后盘算反思时会跳回多远、落在那里 。 。。。。。

发明81.72%的反思办法,,, ,,都会精准落回之前已经形成的靠谱思绪区域里 。 。。。。。

还比照了反思前后的头脑规模,,, ,,反思前,,, ,,语义空间体积是35.2,,, ,,反思后,,, ,,直接压缩到31.2 。 。。。。。

再看聚类效果就更清晰了,,, ,,反思之后,,, ,,统一类准确思绪的点会牢牢抱团,,, ,,而那些零星、跑偏的分支会被自动推开 。 。。。。。

也就是说,,, ,,自我反思氢键能把靠谱逻辑揉得更紧实、把跑偏想法筛出去、稳住整个推理阵势,,, ,,让长链思索不再松散杂乱 。 。。。。。

第三种叫自我探索,,, ,,像范德华力一样弱,,, ,,但笼罩面广 。 。。。。。

这个就类似于“要不咱们试试这个角度”“有没有另一种可能性”,,, ,,在语义空间里找新的解题路径 。 。。。。。

量化剖析显示,,, ,,加上探索行为之后,,, ,,模子在语义空间里的头脑笼罩规模能从23.95扩大到29.22 。 。。。。。

虽然思绪一翻开稳固性就会下降,,, ,,容易跑偏想歪,,, ,,但能让模子跳出死胡同,,, ,,不卡在局部最优解里,,, ,,真正找到全新的解题蹊径 。 。。。。。

研究发明,,, ,,所有强推理模子的三种头脑行为比例和转换纪律都高度一致,,, ,,相关性凌驾0.9,,, ,,说明有用长链推理保存通用的稳固拓扑结构 。 。。。。。

你可能以为“共价键”“氢键”只是个比喻,,, ,,但论文发明,,, ,,这个比喻背后藏着严酷的数学对应 。 。。。。。

在Transformer里,,, ,,注重力权重的盘算方法长这样:

眼熟吗??????这和统计力学里的玻尔兹曼漫衍一模一样:

若是把负注重力分数看作能量,,, ,,那么注重力权重就是模子在语义空间里按“能量”崎岖选择路径的概率就是能量越低,,, ,,被选中的概率越高

论文进一步剖析了三种行为对应的“注重力能量” 。 。。。。。

深度推理通常爆发在相邻办法之间,,, ,,能量最低;自我反思会跳回较远的办法,,, ,,能量中等;自我探索跳得更远,,, ,,能量最高.

这就诠释了为什么强推理模子的三种键比例云云稳固 。 。。。。。

由于模子的注重力机制自己就在追求最低能量的推理路径,,, ,,而深度推理、反思、探索正好对应了差别距离下的能量层级 。 。。。。。

语义同分异构体和智能熵减

接着团队还抛出了语义同分异构体的看法 。 。。。。。

这词儿是借的化学,,, ,,同样的分子式,,, ,,原子毗连方法差别,,, ,,就能搞出性子完全差别的物质 。 。。。。。

放到推理里就是,,, ,,同样的问题,,, ,,同样的看法点,,, ,,用差别的”化学键“组合去解,,, ,,出来的推理链条可以完全纷歧样,,, ,,但都能解对 。 。。。。。

但不是所有异构体都适合拿来教模子 。 。。。。。

这里就要引入一个要害看法熵减

在热力学里,,, ,,伶仃系统总是自觉走向杂乱(熵增),,, ,,而一个有用的长链推理历程,,, ,,实质上就是在语义空间里一直降低不确定性——

从一堆可能的偏向中,,, ,,逐步收敛到唯一准确的谜底 。 。。。。。这个历程就是“熵减” 。 。。。。。

而“注重力能量”机制,,, ,,正是模子实现熵减的工具 。 。。。。。

模子的注重力自然偏好能量更低的路径 。 。。。。。

当深度推理(低能量)被重复选中,,, ,,反思(中等能量)把前后逻辑折叠起来,,, ,,探索(高能量)无意探路但不喧宾夺主,,, ,,整个系统的“推理熵”就会快速下降,,, ,,逻辑迅速收敛 。 。。。。。

这如论文里说的,,, ,,只有那些能推动熵快速降低的“化学键”组合,,, ,,才是模子真正能学会、能一连进化的稳固态 。 。。。。。

这在实验中有个很典范的征象,,, ,,从R1和OSS两个差别强推理模子中蒸馏出的推理轨迹,,, ,,语义层面的内容相似度高达95%,,, ,,但混在一起训练,,, ,,模子反而瓦解了 。 。。。。。

这说明,,, ,,长链推理的要害是思绪结构必需稳固、统一,,, ,,模子才华学得会 。 。。。。。

MoLE-Syn:从零合成稳固推理结构

发明问题就要解决问题 。 。。。。。

基于这一整套发明,,, ,,团队搞了个叫MoLE-Syn的要领,,, ,,来从零合成稳固的推理结构 。 。。。。。

详细操作就两步 。 。。。。。

第一步,,, ,,从强推理模子(好比R1、QwQ、gpt-OSS)的推理链里,,, ,,抽出一张行为转移概率图 。 。。。。。

这张图里每个节点是一种推理行为(化学键),,, ,,每条边是从一个行为跳到另一个行为的概率 。 。。。。。

第二步,,, ,,拿着这张图,,, ,,让通俗的指令模子照着图上画的概率去天生推理链 。 。。。。。

用这个要领从零合成的训练数据,,, ,,喂给Llama或者Qwen,,, ,,效果迫近直接蒸馏R1的水平 。 。。。。。

并且这么做有一个大利益就是本钱低 。 。。。。。只要拿到那张行为转移图,,, ,,通俗模子就能自己生产及格的长链推理数据 。 。。。。。

团队把用MoLE-Syn初始化过的模子拿去做强化学习,,, ,,发明跑起来还特殊稳 。 。。。。。

相比直接用蒸馏数据初始化的模子,,, ,,MoLE-Syn版的在RL历程中收益一连增添,,, ,,震荡也小得多 。 。。。。。

这说明一最先植入的头脑结构够稳,,, ,,后面的强化学习就不会泛起逻辑偏移 。 。。。。。

这项研究的认真人为字节Seed算法专家黄文灏,,, ,,曾在微软亚洲研究院担当研究员 。 。。。。。

第一作者是哈尔滨工业大学博士、字节Seed实习研究员陈麒光

相助单位还包括北京大学、2077AI Foundation、南京大学、M-A-P、中南大学 。 。。。。。

不得不说,,, ,,这波操作有点昔时薛定谔拿物理学公式推生物学那味儿了 。 。。。。。

给大模子推理这个卷得飞起的领域,,, ,,开了个挺清新的新脑洞 。 。。。。。

论文地点:https://arxiv.org/abs/2601.06002

— 完 —

远景新能源有限公司