We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”

91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”

2025/2/11
logo of podcast 张小珺Jùn|商业访谈录

张小珺Jùn|商业访谈录

AI Deep Dive Transcript
People
何俊贤
张小珺
活跃在人工intelligence和大模型领域的播客主持人和专家,通过《全球大模型季报》和《商业访谈录》分享行业深入分析和预测。
Topics
何俊贤: 我认为DeepSeek是一家非常独特的公司,它既开放又低调,并且在技术创新上非常务实和勇敢。从我最早关注他们开始,我就发现他们与其他公司不同,他们更像一个高校实验室,注重科学研究的严谨性,而不是盲目追求商业宣传。他们开源了高质量的论文,详细地公开了技术细节,这在当时是非常少见的。即使在竞争激烈的环境中,他们也没有随波逐流,而是坚持自己的技术路线,不断探索和创新。他们对成本控制和效率提升的追求也贯穿始终,这使得他们能够在有限的资源下取得令人瞩目的成果。总的来说,DeepSeek给我的印象是一家非常值得尊敬和学习的公司。 张小珺: 我理解何老师的观点。DeepSeek确实是一家与众不同的公司,它的成功不仅仅在于技术上的突破,更在于其独特的企业文化和价值观。他们注重科学研究的严谨性,勇于探索和创新,并且始终保持低调和务实的态度。这种精神使得他们能够在激烈的市场竞争中脱颖而出,并赢得业界的尊重。同时,DeepSeek的开源精神也为整个AI社区做出了重要贡献,促进了技术的交流和发展。他们的故事告诉我们,真正的创新不仅仅是技术上的突破,更需要一种坚持和勇气,以及对科学的敬畏之心。

Deep Dive

Shownotes Transcript

2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。

在《商业访谈录》89集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的DeepSeek-R1-Zero、R1、Kimi发布的K1.5,以及OpenAI更早发布的o1技术报告。这些模型聚焦的都是大模型最新技术范式,RL强化学习,简单来说就是o1路线。

今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注DeepSeek的系列研究。我们会focus在最近引发全球AI届关注的DeepSeek上。

何老师将带领大家从DeepSeek的第1篇论文开始,阅读经过挑选的这家公司历史上发布的9篇论文。

我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美我们的播客节目在腾讯新闻首发),大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题 整体风格:Open、Honest、低调、严谨的科学态度 DeepSeek基座模型 21:00 《DeepSeek LLMScaling Open-Source Language Models with Longtermism》技术讲解

45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解

01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解

01:40:17 《DeepSeek-V3 Technical Report》技术讲解 DeepSeek推理模型 02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解

02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解

02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解

02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解 03:01:41 9篇论文到这里都讲完啦!最后我们一起强化学习一下! 关于强化学习往期节目:

AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4)

和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角)

王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路)

逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”)

开源一场关于DeepSeek的高质量闭门会:

一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”)

【更多信息】

联络我们:微博@张小珺-Benita),小红书@张小珺)

更多信息欢迎关注公众号:张小珺