We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode ep120 第一顶流DeepSeek,到底牛逼在哪里?

ep120 第一顶流DeepSeek,到底牛逼在哪里?

2025/2/15
logo of podcast 朝十晚久

朝十晚久

AI Chapters
Chapters

Shownotes Transcript

DeepSeek已经炸了,已经破圈了。本期节目,我们尝试挑战一下用大白话讲述一下DeepSeek模型背后的真实。DeepSeek V3 进化 DeepSeek R1-Zero 进化 DeepSeek R1 ! 幻方到底做了哪些技术创新和奇技淫巧,让DeepSeek突然爆发成为全球顶流?所谓的“多快好省”体现在具体什么地方?

如果你不想再人云亦云地复读DeepSeek模型花钱少,那么听一听本期节目包收获的。

主播:松阴

节目开始前,请大家加入听友群(加群方法见播客介绍页),以及帮忙多多转发!

01:47 当我们谈论DeepSeek,我们到底在谈论什么模型?

04:46 DeepSeek的训练成本500万美元?!

08:59 美国业界在V3刚出的时候就注意到了

09:40 MoE 混合专家模型

11:50 门控网络:混合专家模型里的“分检”

16:23 多头潜在注意力 MLA

18:36 FP8的大模型实现

22:08 DeepSeek到底有1万张A100显卡吗?

26:00 R1-Zero的Zero来自于Alpha-Zero

27:00 强化学习 vs 监督学习

30:04 GRPO(Group Robust Preference Optimization )) vs  PPO(Proximal Policy Optimization))

32:33 训练模板

34:40 R1-Zero的缺点

36:01 训练一个R1模型

38:30 R1训练的第二阶段

40:39 用R1蒸馏小模型

42:18 什么是“知识蒸馏”呢?软标签/硬标签/温度

45:08 蒸馏 vs 强化学习

48:33 吐槽一下:稳定性 and 黑话太多

----------------分割线------------

阅读材料

V3的训练成本比较 强化学习中的GRPO和PPO R1-Zero的训练模版 R1的二阶段训练总过程 https://arxiv.org/abs/2501.12948 

DeepSeek R1 是怎么训练出来的?- R1 论文精读)

万字赏析DeepSeek创造之美:DeepSeek R1 是怎样炼成的?)

一文看懂MoE混合专家大模型)