DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么「硬控」?硅谷

  更新时间:2026-01-20 22:54   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

影响了世界 AI 军备竞赛 即便 DeepSeek 可能根本不在意 DeepSeek R1 的发布在当时给 AI 竞赛带来了年前的 R1 是 DeepSeek 给 AI 行业的一

<p class="f_center"><br></p> <p id="48N1E82O">「服务器繁?忙,请稍后再)试。」</p> <p id="48N1E82P">一年前,我也是被这句话硬控的用户之一。</p> <p class="f_center"><br></p> <p id="48N1E82R">DeepSeek 带着 R1 在一年前的今天(2025.1.20)横空出世,一出场就吸引了全球的目光。</p> <p id="48N1E82S">那时候为了能顺畅用上 DeepSeek,我翻遍了自部署教程,也下载过不少号称「XX - DeepSeek 满血版」的各类应用。</p> <p class="f_center"><br></p> <p id="48N1E82U">一年后,说实话,我打开 DeepSeek 的频率少了很多。</p> <p id="48N1E82V">豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更不用说海外的 ChatGPT、Gemini 等 SOTA 模型产品。</p> <p id="48N1E830">当这些全能 AI 助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着 DeepSeek?」</p> <p id="48N1E831">于是,DeepSeek 在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。</p> <p id="48N1E832">看一眼 App Store 的排行榜,这种「变心」又似乎不是我一个人的错觉。</p> <p class="f_center"><br></p> <p id="48N1E835">▲ 免费应用下载榜的前三名,已经被国产互联网大厂的「御三家」包揽,而曾经霸榜的 DeepSeek,已经悄悄来到了第七名。</p> <p id="48N1E837">在一众恨不得把全能、多模态、AI 搜索写在脸上的竞品里,DeepSeek 显得格格不入,51.7 MB 的极简安装包,不追热点,不卷宣发,甚至连视觉推理和多模态功能都还没上。</p> <p id="48N1E838">但这正是最有意思的地方。表面上看,它似乎真的「掉队」了,但实际是 DeepSeek 相关的模型调用仍是多数平台的首选。</p> <p id="48N1E839">而当我试图总结 DeepSeek 过去这一年的动作,把视线从这个单一的下载榜单移开,去看全球的 AI 发展,了解为什么它如此地不慌不忙,以及即将发布的 V4,又准备给这个行业带来什么新的震动;我发现这个「第七名」对 DeepSeek 来说毫无含金量,它一直是那个让巨头们真正睡不着觉的「幽灵」。</p> <p>掉队?DeepSeek 有自己的节奏</p> <p id="48N1E83A">当全球的 AI 巨头都在被资本裹挟着,通过商业化来换取利润时,DeepSeek 活得像是一个唯一的自由球员。看看它的竞争对手们,无论是国内刚刚港股上市的智谱和 MiniMax,还是国外疯狂卷投资的 OpenAI 和 Anthropic。</p> <p id="48N1E83B">为了维持昂贵的算力竞赛,就连马斯克都无法拒绝资本的诱惑,前几天刚刚才为 xAI 融了 200 亿美元。</p> <p id="48N1E83C">但 DeepSeek 至今保持着「零外部融资」的记录。</p> <p class="f_center"><br></p> <p id="48N1E83F">▲年度私募百强榜,按照公司平均收益排名,幻方量化位于第七名,<strong>百亿以上规模排名第二</strong>|图片来源:https://www.simuwang.com/news/285109.html</p> <p id="48N1E83H">在这个所有人都急着变现、急着向投资人交作业的时代,DeepSeek 之所以敢掉队,是因为它背后站着一台超级「印钞机」,幻方量化。</p> <p id="48N1E83I">作为 DeepSeek 的母公司,这家量化基金在去年实现了超高的 53% 回报率,利润超过 7 亿美元(约合人民币 50 亿元)。</p> <p id="48N1E83J">梁文锋直接用这笔老钱,来供养「DeepSeek AGI」的新梦。这种模式,也让 DeepSeek 极其奢侈地拥有了对金钱的掌控权。</p> <p class="f_center"><br></p> <p></p> <ul> 没有资方的指手画脚。 没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的 Thinking Machine Lab;还有小扎的 Meta AI 实验室各种绯闻。 只对技术负责, 因为没有外部估值压力,DeepSeek 不需要为了财报好看而急于推出全能 App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。 </ul> <p id="48N1E83L">App Store 的下载量排名,对于一家需要向 VC 证明「日活增长」的创业公司来说是命门。但对于一家只对 AI 发展负责、不仅不缺钱还不想被钱通过 KPI 控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。</p> <p class="f_center"><br></p> <p id="48N1E83O">▲ 更何况,根据 QuestMobile 的报告,DeepSeek 的影响力完全没有「掉队」</p> <p>改变生活,也影响了世界 AI 军备竞赛</p> <p id="48N1E83Q">即便 DeepSeek 可能根本不在意,我们是否已经选择了其他更好用的 AI 应用,但它过去这一年带来的影响,可以说各行各业都没有错过。</p> <p id="48N1E83R"><strong>硅谷的「DeepSeek 震撼」</strong></p> <p id="48N1E83S">最开始的 DeepSeek,不仅仅是一个好用的工具,更像是一个风向标,用一种极其高效且低成本的方式,打碎了硅谷巨头们精心编织的高门槛神话。</p> <p class="f_center"><br></p> <p id="48N1E83V">▲ 图片来源:https://openaiglobalaffairs.substack.com/p/deepseek-at-1</p> <p id="48N1E841">如果说一年前的 AI 竞赛是比谁的显卡多、谁的模型参数大,那么 DeepSeek 的出现,硬生生把这场竞赛的规则改写了。在 OpenAI 及其内部团队(The Prompt) 的最近发布总结回顾中,他们不得不承认,</p> <p></p> <blockquote id="48N1E85S">DeepSeek R1 的发布在当时给 AI 竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。</blockquote> <p id="48N1E842">DeepSeek 一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。</p> <p id="48N1E843">根据 ICIS 情报服务公司最近的分析,DeepSeek 的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。</p> <p class="f_center"><br></p> <p id="48N1E846">▲ AI 竞赛正在演变成一场漫长的马拉松|图片来源:https://www.icis.com/asian-chemical-connections/2026/01/a-year-on-from-deepseek-us-versus-china-in-the-ai-race/</p> <p id="48N1E848">这直接导致了全球 AI 竞赛从「造出最聪明的模型」,转向了「谁能把模型做得更高效、更便宜、更易于部署」。</p> <p id="48N1E849"><strong>微软报告里的「另类」增长</strong></p> <p id="48N1E84A">当硅谷巨头们还在争夺付费订阅用户时,DeepSeek 也开始在被巨头遗忘的地方扎根。</p> <p id="48N1E84B">在微软上周发布的《2025 全球 AI 普及报告》中,DeepSeek 的崛起被列为 2025 年「最意想不到的发展之一」。报告揭示了一个有意思的数据:</p> <p></p> <ul> 非洲使用率高:因为 DeepSeek 的免费策略和开源属性,消除了昂贵的订阅费和信用卡门槛。它在非洲的使用率是其他地区的 2 到 4 倍。 占领受限市场: 在那些美国科技巨头难以触达或服务受限的地区,DeepSeek 几乎成了唯一的选择。数据显示,它国内的市场份额高达 89%,在白俄罗斯达到 56%,在古巴也有 49%。 </ul> <p id="48N1E84C">微软在报告里也不得不承认,DeepSeek 的成功更加确定了,AI 的普及不仅取决于模型有多强,更取决于谁能用得起。</p> <p class="f_center"><br></p> <p id="48N1E84F">▲全球南方地区 AI 普及的程度还有很大的提升空间|https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/</p> <p id="48N1E84H">下一个十亿级 AI 用户,可能不会来自传统的科技中心,而是来自 DeepSeek 覆盖的这些地区。</p> <p id="48N1E84I"><strong>欧洲:我们也要做 DeepSeek</strong></p> <p id="48N1E84J">不仅是硅谷,DeepSeek 的影响跨越了整个地球,欧洲也不例外。</p> <p id="48N1E84K">欧洲一直是被动地使用美国的 AI,虽然也有自己的模型 Mistral,但一直不温不火。DeepSeek 的成功让欧洲人看到了一条新路,既然一家资源有限的中国实验室能做到,欧洲为什么不行?</p> <p class="f_center"><br></p> <p id="48N1E84M">据连线杂志最近的一篇报道,欧洲科技界正在掀起一场「打造欧洲版 DeepSeek」的竞赛。不少来自欧洲的开发者,开始打造开源大模型,其中一个叫 SOOFI 的欧洲开源项目更是明确表示,「我们将成为欧洲的 DeepSeek。」</p> <p id="48N1E84N">DeepSeek 过去这一年的影响,也加剧了欧洲对于「AI 主权」的焦虑。他们开始意识到,过度依赖美国的闭源模型是一种风险,而 DeepSeek 这种高效、开源的模式,正是他们需要的参照。</p> <p>关于 V4,有这些信息值得关注</p> <p id="48N1E84O">影响还在继续,如果说一年前的 R1 是 DeepSeek 给 AI 行业的一次示范,那么即将到来的 V4,会不会又是一次反常识的操作。</p> <p id="48N1E84P">根据前段时间零零散散的爆料,和最近公开的技术论文,我们梳理了关于 V4 最值得关注的三个核心信号。</p> <p id="48N1E84Q"><strong>1. 复刻「春节突袭」</strong></p> <p id="48N1E84R">DeepSeek 似乎偏爱在农历新年这个时间节点搞事情。有消息透露,DeepSeek 计划在 2 月中旬(农历新年前后)发布新一代旗舰模型 V4。去年的 R1 也是在这个时间节点发布,随后在春节假期引爆了全球关注。</p> <p id="48N1E84S">不得不说,这种时机选择避开了欧美科技圈的常规发布拥堵期,还充分用到了长假期间用户的尝鲜心理,确实能为病毒式的传播埋下种子。</p> <p class="f_center"><br></p> <p id="48N1E84U"><strong>2. 核心能力是卷代码和超长上下文</strong></p> <p id="48N1E84V">在通用对话已经趋于同质化的今天,V4 选择了一个更硬核的突破口:生产力级别的代码能力。</p> <p id="48N1E850">据接近 DeepSeek 的人士透露,V4 并没有止步于 V3.2 在基准测试上的优异表现,而是在内部测试中,让其代码生成和处理能力,直接超越了 Anthropic 的 Claude 和 OpenAI 的 GPT 系列。</p> <p class="f_center"><br></p> <p id="48N1E852">更关键的是,V4 试图解决当前编程 AI 的一大痛点:「超长代码提示词」的处理。这意味着 V4 不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。</p> <p id="48N1E853">为了实现这一点,V4 也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。</p> <p id="48N1E854"><strong>3. 关键技术:Engram</strong></p> <p id="48N1E855">比起 V4 模型本身,更值得关注的是 DeepSeek 在上周联合北京大学团队发表的一篇重磅论文。</p> <p id="48N1E856">这篇论文揭示了 DeepSeek 能够在算力受限下持续突围的真正底牌,是一项名为 「Engram(印迹/条件记忆)」 的新技术。</p> <p class="f_center"><br></p> <p id="48N1E858">HBM(高带宽内存)是全球 AI 算力竞争的关键领域之一,当对手都在疯狂囤积 H100 显卡来堆内存时,DeepSeek 再次走了一条不寻常的路。</p> <p></p> <ul> 计算与记忆解耦: 现有的模型为了获取基本信息,往往需要消耗大量昂贵的计算力来进行检索。Engram 技术能让模型高效地查阅这些信息,而不需要每次都浪费算力去计算 。 省下来的宝贵算力,被专门用于处理更复杂的高层推理。 研究人员称,这种技术可以绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。 </ul> <p class="f_center"><br></p> <p id="48N1E85A">在显卡资源日趋紧张的背景下,DeepSeek 的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。</p> <p id="48N1E85B"><strong>DeepSeek 这一年的进化,本质上是在用反常识的方式,解决 AI 行业的常识性难题。</strong></p> <p id="48N1E85C">它一年进账 50 亿,能够用来训练出上千个 DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的 HBM。</p> <p id="48N1E85D">过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。</p> <p id="48N1E85E">这些选择,在短期看都是「错的」。不融资,怎么跟 OpenAI 拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?</p> <p class="f_center"><br></p> <p id="48N1E85G">但如果把时间线拉长,这些「错的」选择,可能正在为 DeepSeek 的 V4 和 R2 铺路。</p> <p id="48N1E85H">这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4 会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。</p> <p id="48N1E85I">但至少现在我们知道,在 AI 这个行业里,反常识,有时候才是最大的常识。</p> <p id="48N1E85J">下一次,还是 DeepSeek 时刻。</p>

编辑:黄柏豪