DeepSeek为何坚持中文思考 汉字信息密度更高!前天,DeepSeek 发布了两个新模型,分别是 DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。这两个版本在推理能力上有了显著提升,DeepSeek-V3.2 版本能够与 GPT-5 相抗衡,而 Speciale 版本结合了长思考和定理证明能力,表现可媲美 Gemini-3.0-Pro。有读者评论说这个模型应该叫 V4 而不是 V3.2。

海外研究者也迅速使用了 DeepSeek 的新版本,他们注意到 DeepSeek 推理速度显著提升,但同时也遇到了困惑:即使用英文询问,模型在思考过程中还是会切换到中文。这让海外用户感到不解:明明没有用中文提问,为什么模型会用中文思考?难道用中文推理更好更快?

评论区有两种不同的观点,大部分评论认为汉字的信息密度更高。亚马逊的研究者也认同这一观点,表示表达相同的文本含义时,中文所需的字符量明显更少。如果大模型的理解与语义压缩相关,那么中文在压缩方面比英文更有效率,这可能是“中文更省 token”的原因。

具有多语言能力的大模型如果只采用英语思考的模式往往会导致一些效率问题。不光是中文,采用其他非英语的语言进行推理确实能够有更好的表现。微软的一篇论文《EfficientXLang: Towards Improving Token Efficiency Through Cross-Lingual Reasoning》发现,使用非英语语言进行推理不仅减少了 Token 消耗,还能保持准确性。即使将推理轨迹翻译回英语,这种优势依然存在,表明这种变化源于推理行为的实质性转变,而非仅仅是表层的语言效应。




