今天凌晨,AI圈又炸了。DeepSeek在没有任何官方预告的情况下,悄悄发布了R1模型的最新版本——R1-0528[1][6][7]。
每次DeepSeek发布新版本,都选择在大家即将放假或者深夜的时候。这次R1-0528也不例外,5月28日凌晨悄然上线[1]。有网友调侃说:"每次都放假前发布模型,这是什么奇怪的企业文化?"[13]。不过,这种低调的发布方式反而让人更期待——毕竟,真正有实力的产品,从来不需要过度包装。
这次更新最有意思的地方在于,官方几乎没有提供任何技术细节说明,只是简单地告诉用户"模型已完成小版本试升级"[2]。但网友们的测试热情可不会因为官方的低调而降低。很快,各种测试结果就开始在社交媒体上流传,而且结果相当令人惊喜。
这次更新到底改了什么?首先是响应质量的提升,这个可以说是最核心的改进。复杂推理和多步骤计算变得更加准确,长文理解与生成更加连贯,逻辑也更清晰。数学、编程等专业性输出的可靠性也得到了显著提升[2]。
从实际测试来看,新版本在处理复杂逻辑问题时表现确实更加出色。有网友测试了一个经典的空间推理问题:"一个长八米的细长棍子,能否通过宽三米高四米的门",结果发现只有o3和新的DeepSeek-R1答对了,其他诸如claude-opus-4、等模型都没能正确回答[19]。
虽然只是"小幅提升",但在网页端、App、API接口中的响应都变得更加敏捷,特别是在处理超长文本输入时,延迟降低了约10%~20%[2]。这种优化可能看起来微不足道,但对于需要频繁使用的用户来说,体验提升是非常明显的。
这点对开发者来说特别重要。API调用方式、参数、返回结构完全不变,用户无需调整现有集成,即可无缝使用新版本[2]。这种向后兼容的设计理念,体现了DeepSeek对开发者生态的重视。
性能测试:真的能媲美o3?最让人兴奋的消息来自第三方测试。在著名的代码测试平台LiveCodeBench中,R1-0528的性能表现可以媲美OpenAI最新的o3模型高版本[1][6][7]。这个结果如果属实,那意义就相当重大了。
要知道,OpenAI的o3模型被认为是目前推理能力最强的模型之一,DeepSeek能够在开源模型的基础上达到这个水平,确实令人印象深刻。更重要的是,有网友测试新版R1的风格,发现几乎和OpenAI的o3差不多[1][6]。
社区测试中最令人震惊的是编程能力的提升。有网友感叹:"太吓人了,1000多行代码一次搞定,没有bug"[8]。还有人认为,新版本的编程能力已经可以和"编程新王"Claude4一较高下[8]。
这种编程能力的提升不仅仅体现在代码生成的准确性上,更重要的是对复杂编程逻辑的理解和处理能力。这对于开发者来说,意味着AI助手不再只是简单的代码片段生成器,而是真正能够理解和解决复杂编程问题的智能伙伴。
除了编程,模型的理解能力也上了一个层次。有用户测试后表示:"感觉模型的理解能力上了一个层次,比如激活参数部分,R1可以制作交互动画来展示,另外关键信息的逻辑也非常清晰"[8]。
这种理解能力的提升体现在多个方面:对复杂概念的解释更加准确,对用户意图的把握更加精准,对知识点之间关联的处理更加合理。
从技术角度来看,这次更新虽然被定义为"小版本升级",但实际上涉及了模型的多个核心组件。根据官方信息,当前版本为,升级日期为2025年5月28日[9]。
有细心的用户发现,新版本的思维链表现发生了一些微妙的变化。"之前开头第一个词一般固定是'嗯,……',现在没有这种情况了。思维链里的内容也变得简练了很多,每一段的内容更少了"[19]。
这种变化可能看起来很小,但实际上反映了模型在推理过程优化方面的努力。更简练的思维链意味着更高效的推理过程,同时也可能带来更快的响应速度。
虽然这次更新没有进行重大结构升级[9],但从性能提升的幅度来看,DeepSeek很可能对模型的某些关键组件进行了精细化调优。这种微调往往比大规模的架构改动更能带来实质性的性能提升。
R2在哪里?市场的期待与现实值得注意的是,这次更新让很多人对R2的发布时间产生了新的猜测。今年2月就有媒体称,DeepSeek在加速推出R2,原计划时间定在5月初[8]。4月初,DeepSeek还联手清华大学发布了一篇关于自我原则点评调优(SPCT)的论文,引发了R2即将面世的猜测[8]。
4月末,又有消息称R2将采用更先进的混合专家模型(MoE),总参数量预计达1.2万亿,较6710亿参数的R1提升约1倍[8]。但到目前为止,DeepSeek都未正式确认任何有关R2发布时间的消息。
这次更新也再次体现了DeepSeek对开源生态的坚持。新版本的开源模型已经上传到HuggingFace,正式命名为DeepSeek-R1-0528[13]。虽然目前还没有提交详细的信息卡,但这种快速开源的做法继续维护着DeepSeek在开源AI社区的良好声誉。
DeepSeek在今年1月发布R1时,就采用了MITLicense,允许用户通过蒸馏技术借助R1训练其他模型[3]。这种开放的许可证政策对整个AI开源生态的发展起到了重要的推动作用。
API接口和使用方式保持不变[2],这意味着已经基于DeepSeekR1构建应用的开发者可以无缝享受到新版本带来的性能提升。这种向后兼容的设计理念,大大降低了技术更新对现有生态的冲击。
DeepSeekR1的API服务定价为每百万输入tokens1元(缓存命中)/4元(缓存未命中),每百万输出tokens16元[3]。相比于国外竞品,这个价格具有明显的优势,而性能的持续提升进一步增强了其竞争力。
用户体验的实际改进对于普通用户来说,这次更新带来的最直观的改进就是使用体验的提升。无论是在官方网页、APP还是小程序中,用户都可以立即体验到新版本的改进[2]。
特别是"深度思考"模式的优化,让用户在处理复杂推理任务时能够获得更好的体验。这种改进虽然在数字上可能不够显眼,但在实际使用中的感受是非常明显的。
DeepSeekR1-0528的发布,再次展现了中国AI公司在大模型领域的实力。从最初的R1震惊全球,到现在的持续优化,DeepSeek正在用实际行动证明,中国的AI技术不仅能够达到国际先进水平,还能够在开源的前提下实现商业化成功。
这种发展模式对整个AI行业都有重要的启示意义。技术创新不一定需要巨额投资和最新硬件,关键在于算法的优化和工程的精进。DeepSeek用相对较低的成本实现了与顶级商业模型相媲美的性能,这为更多的创业公司和研究机构提供了可能性。
从技术发展的角度来看,AI模型的进步正在从"大步快跑"转向"精耕细作"。这种变化可能预示着AI行业正在进入一个新的发展阶段——不再单纯追求参数规模和计算资源,而是更加注重模型的实用性和用户体验。
结语DeepSeekR1-0528的"悄然发布"再次证明了一个道理:真正的技术实力不需要华丽的包装。在AI技术日新月异的今天,持续的优化和改进往往比一次性的重大突破更有价值。
对于开发者来说,这次更新提供了更强大的工具;对于用户来说,带来了更好的体验;对于整个AI行业来说,展示了开源模型的巨大潜力。虽然我们还在等待R2的正式发布,但R1-0528已经足够让人惊喜了。
Citations:
[1][2][3][4][5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][24][25]