We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 102: DeepSeek 启动开源周,大模型开源到底在开什么?

102: DeepSeek 启动开源周,大模型开源到底在开什么?

2025/2/25
logo of podcast 晚点聊 LateTalk

晚点聊 LateTalk

AI Deep Dive AI Chapters Transcript
People
王子涵
程曼祺
Topics
程曼祺:我一直关注大模型开源的意义和实践方式,特别是开源与闭源模式的差异,以及如何更好地让社区理解和使用开源成果。开源已成为趋势,许多之前闭源的公司也开始开源模型。DeepSeek开源周的案例,以及对开源模型不同层级(技术报告、模型权重、推理框架、训练框架、数据集)的讨论,都非常有意义。DeepSeek为了提升社区理解和使用,在代码规范和技术报告撰写上投入了大量精力,这体现了其对开源的重视。但开源也带来风险,需要在技术进步的同时,关注并解决滥用等问题。 王子涵:我参与过多个开源项目,包括Agent相关benchmark和DeepSeek R1与Agent结合的项目。DeepSeek开源周的FlashMLA项目,是一个底层算子优化的推理框架,对不同类型的开发者都有帮助。大模型开源有不同层级,技术报告和模型权重是基础,更深入的开源包括推理框架和训练框架,而数据集开源则非常少见。开源需要额外的工作,例如代码规范化和适配现有开源框架,这需要时间和精力。不同公司的开源策略与其盈利模式和目标有关,有些公司开源最强模型,有些公司则只开源较弱模型。开源虽然能加速技术发展,但也存在滥用风险,需要谨慎对待。我个人就曾遭遇过开源模型滥用的情况,这提醒我们需在开源的同时,关注并解决潜在的风险。

Deep Dive

Chapters
DeepSeek 开启为期一周的开源活动,首个项目 FlashMLA 已经发布。本期节目讨论了开源周的预告,FlashMLA 的特点,以及对未来开源方向的推测,包括训练框架、VCR 和 R1 等。
  • DeepSeek 开启开源周,首个项目为 FlashMLA
  • FlashMLA 是一个 C++ 算子层推理框架优化项目
  • 未来可能开源训练框架、VCR 和 R1 等项目

Shownotes Transcript

欢迎收听本期晚点聊今天的主播是曼琪上个周五 DeepSeek 在官方推特上预告了下一周会连续五天开源五个成果进入 Open Source Week 开源周我们录制节目的这一天是周一 DeepSeek 也正式放出了开源周的第一个开源项目 Flash MLA 我一直很想和人好好聊一下大模型开源是在开什么

怎么开比如相比于币源模型开源要额外做一些什么工作才能让社区比较好的理解到这个开源成果以及能更充分的把开源用起来随着 DeepSick 在春节的爆火出圈开源也正在成为一种趋势比如之前一直模型币源的一些公司如 MiniMax 街月星辰从 1 月到现在都陆续发布了自己的第一批开源模型

之前选择保留自己最强的模型开源较少版本模型的公司可能也会在 DeepSeek 的冲击波里有新的选择正好在 DeepSeek 这个开源周五我邀请到了正在美国西北大学 MLL Live 攻读博士学位的王子涵子涵今年刚博一之前毕业于人大大四的时候也就是 2024 年他曾在 DeepSeek 实习过数个月

接下来在今年的暑假即将去一家美国的做 AI Agent 的公司叫 Utory 实习这期我和子涵聊到了开源模型不同的层级主要有技术报告模型权重推理框架训练框架还有数据集现在我们说一个模型是开源的

一般指的是有技术报告也开放了模型权重再往下更深入的开源是推理框架和训练框架而现在只有极少数的机构比如 Allen AI 研究所和 Illustra AI 他们也开放过预训练或微调的数据集我们也在一起围观 DeepSea 和开源周的过程中回顾了他们之前开源模型的一些重点营化思路以及他们为了让社区充分理解和使用开源成果而专门花费心力去规范代码

写详细的技术报告这背后是一个组织对优先级的选择而在本期最后子涵也分享了一个自己成为开源模型滥用受害者的青春经历

开源在加速技术进化也带来了一些需要一边技术进化一边思考和防范的新问题这让我想到最近刚看过的一句话马斯克曾经说有人问我是不是想死在火星上我说当然但别死于登陆器降落时的撞击下面我们就正式进入本期节目吧子涵你可以和我们的听友先打个招呼也简单介绍一下你之前的学习工作与开源的一些渊源与关系

大家好,我叫王子涵,非常开心今天能来曼琪的频道做客。我现在是在西北大学读一年级 PhD,然后导师是李曼琳老师,我的方向有 Large-Range Model,然后 Agent Reasoning 等等,然后以及比如我们最近在做一些 Long Context 和 Efficiency 相关内容。

因为我的导师李曼妮老师之前是在 Stanford 家俊和菲菲组里做 postdoc 所以说我们组也做一些 Vision-like Model 和 Robotics 方向就这些方向虽然我没有直接参与但是就是新组里的同学做项目的话还也有一些了解吧对然后我之前本科是人大的高龄人工智能学院我本科期间有一段实习经历就是像刚才曼琪所说的就是在 DeepSeek

然后我接下来暑假也会去继续做一阵子的方向在一家创业公司实行对谢谢

你之前的工作里包括实习这些都算上的话有什么和开源比较相关的一些工作吗我觉得我绝大部分工作应该都开源了吧然后其实最早的一篇我只能说就是最早的我做的比较出名的一篇吧可能是当时在鼠炎的时候季恒老师组里做的一篇关于 agent 相关的工作我们当时做了一篇 benchmark

然后这个 benchmark 的话相当于是当时 23 年 9 月份吧其实我们做这个课题的时候是 23 年的 2 月份当时做 agent 其实是一个还比较超前的选择就是因为当时我们初步的发现 lunch model 有去通过他自己能力调用外部工具的一些可能性然后呢我们就去想那现在其实很多公司都会当时已经 claim 就是说自己能做 agent

但是就这种 benchmark 什么的还比较少就是没有一个比较统一的能够去 evaluate 他们然后去就是比一比到底谁比较厉害的这种工具然后我们就做了一些就是在网上可能是通过已有的数据集里面找了一些训练题然后把它重新组织成一个模型能够通过这种 agent 的方式去学习的就是去把这题做出来的一个形式吧

然后这可能是第一个就是影响力比较大的开源工作当时在公司里面的话 DeepSick VR 也有参与但是就只能说是参与了研发吧对然后组会的时候就是可能可以聊一聊啊提提意见然后帮忙跑跑实验什么的其实也不是特别核心的贡献然后最后就是可能最近做了一篇关于 DeepSick R1 Diagent 的这个目前说是一个开源的 repo 啊

那我们之后会考虑把它给发布出来就是发布一个正式的报告对其实我们现在这个报告已经在写了然后差不多写完了主要就是把这个问题给用形式化的语言就各种数学公式给 formulate 了一下

而且我们也加了几个不同的 task 我们就是去研究这个 reasoning agent 如果他使用 deep seek R1 这种纯 RL 训练的方法再加上一个多轮的 dynamics 的话他大概能达到什么样的效果那我们第一部分先来聊一聊 deep seek 的开源周吧我觉得这也是大家现在比较关注的一个事情

然后开源周在上周释放出来的信息主要是 DeepSeek 在推特上的一个预告原文的截图会贴在 showloads 里然后这里我简单复述一下它大概写的是第 0 天为开源周预热我们是来自 DeepSeek AI 的一个小团队致力于探索通用人工智能从下周开始我们将开源五个代码库以完全透明的方式分享我们虽小但诚挚这里的原文是 small but sincere 的进展

我们在线服务中这些看似平平无奇的基础组件它用的是 Humble Building Blocks 都已经被文档化部署并且在实际应用中经过了实战检验作为开源社区的一份子我们相信每一行被分享的代码都将汇聚成加速这趟旅程的集体势能

每日开源内容即将推出这里没有高高在上的象牙塔只有纯粹的车库精神和社区驱动的创新对这是他在推特上的一个预告同一天 DeepSeek 也在 GitHub 上放了他们第一个和开源周有关的一个库而且它是置顶到就是它这个库的一个置顶页面的名字就是叫 OpenInfraIndex 开源的 Infra 指引 Infra 就是指 AI 的 Infrastructure 基础设施层这个项目的地址我也贴在修罗斯里了

以及順便說一下如果有一些聽友不是特別了解 AI Infra 是做什麼的話可以去聽腕點聊的第 58 期我們和規矩流動的創始人袁靜輝非常詳細地聊了 AI Infra 到底在做什麼那回到開源周子涵就是你從 DeepSeek 的這個推特預告以及它 Open Infra Index 這個 GitHub 的庫裡面你看到了一些什麼亮點以及結合今天放的這個東西你覺得這一周整體上大概 DeepSeek 會連續開源一些什麼東西我覺得

That's a good question 我其实没有什么预判这个东西的能力可能在我就是比如说出来之后然后我就很难预测他们的任何一个 action 我觉得其实他们自己有一个框架就是他们内部有一个蓄模型的框架其实今天这个 Flash MLA 我觉得可能如果你说它还算是一个比如说推理加速它可能也有训练的

但是我觉得如果他们有机会可能可以去开源一些比如说 training 的框架然后包括他们 VCR 那些成果吧我觉得可以这么说就是比如说现在这个成果可能还是 VR 的训练框架那我觉得他们是有可能会开一些比如说 VCR 或者 R1 的训练和推理框架

因为 MLA 其实就是 DeepSync VR 里面算是它的一个创新点吧对所以它现在这个可以如果总结来说的话今天放的 Flash MLA 是 VR 这个框架里的一个推理的优化对吧就可以加速你的这个效率的对对其实他们很多创新都是 target 在要几个效率就是每一个吧我觉得可能真的是每一个对不对说它 V3 里面有其实整体总结是三个创新点吧

一个是他们沿用了 Meta 那个 Multi-Token Prediction 那模型一次能够吐两个 Token 三个 Token 了那其实它就会更加 Efficient 然后我记得他们报告里面写的是两个 Token 就是它可以一次定型就是吐两个 Token 然后第二个是低精度训练说是低精度其实就是把

数字用一个更小的比特去存下来的嘛然后你达成差不多的训练效果那也是 efficiency 也是效率然后还有一个就是和变形相关的就是模型变形它在做 pipeline parallel 的时候它不是向量会在模型的不同的

然后它需要在这个地方做一个变形然后其实他们就是说相当于在变形的时候会有很多那种空泡比如说你要先做 forward 再做 backward 那其实就会有很多模型的不同的可能是闲置的它没有在处理任何一个向量那其实它之前的工作就是说你可以做 pipeline parallel 就是说你这个模型一号就是第一层处理完了第一个 tensor 之后然后把它交给第二层第一层再处理第二号 tensor

然后就这样一直去做一个流水线的变形然后 DeepSeq 相当于在这个过程中又做了一些优化然后在这个过程中你可能有些时候也会有一些闲置的块它把这个闲置的块变少了所以说我觉得每个创新点都挺一期生息的就是都是挺追求效率对那回到就是这个 FlashMLA 的话你觉得它对社区里的什么类型的开发者是最有用最有帮助的呀我觉得对每一类开发者都挺有帮助

因为 Flash MLA 的话它说是比如说可能很多人会注意到它是 MLA 但很多人也会注意到它是 Flash 就是说它对系统做了一些特别底层的优化我觉得它应该是写了很多算子就其实我自己在和很多人交流的时候我发现他们自己写代码可能最多就写到就是说他们不会去做系统上的优化

他们就是说把这个代码能实现出来就好了其实我觉得之前 flash attention 就是做那种系统上的优化就比如说 attention 都是这么算那你在算的过程中呢就是做相同的矩阵运算我也有能让你更快的方法就是比如说我把多个操作合并成一个操作那你就会更快一些嘛这个就是靠你说的我去写一些更底层的算子来实现的对吧对对对就即使

它计算的方式还是一样的但是它可以让系统或者说硬件发挥出更好的效率对对对那具体到就是这一次 Flash MLA 的开源它是把这些算子代码也都开源出来了我看一下它写到 C++这一层肯定是算子优化了

你也可以跟我们的听友解释一下就是算子优化大概是指什么意思因为有的人可能他不是专门做 AI 研究的行 我想一想算子优化怎么解释就是我们拿很简单的矩阵乘法去做这个例子吧就比如说我们实际上做矩阵乘法大家可能想法就是一个一个算嘛然后在这个算的过程中呢可以这么说就 GPU 它是去并行的处理一些操作的

那你在这个过程中如果你能把这个计算的方式以一个 GPU 能听懂的方式去告诉他比如说你什么时候这个一号操作要在第一个 walker 这里做二号操作要在第二个 walker 这里做那他就会变得比较的 efficient

然后其次就是你可以通过合并一些运算的方式来让这个计算更加 efficient 比如说可能有时候加法结合率乘法结合率加法交换率这些方式比如说你先算 A 再算 B 或者说先算 B 再算 A 那你可能也会不一样我能想到一个比较经典的例子就是 Flash Attention 里面它其实是整个 Attention 它可能有好几种不同的运算它把它合并成一种然后在 GPU 里面去一次把它完成

那这样的话因为我如果要对很大的矩阵做多次预算的话我就让它过 GPU 的那个桥就是说其实 GPU 它是有好几层的比如说最里面那一层它是最小的然后也是算得最快的然后外面有一个比较大的层它可以装下更多东西但是它算的就没有那么快那实际上我们在做的过程中就是把外面这一层的一个大矩阵一批一批地送到里面去做一个操作算完之后再送出来

那如果我们只做一次的话这个操作就是我们把它送进去送出来就不太花时间但是如果我们要做好几次操作的话那每一次运送都会花时间那我就不如一次把这个矩阵送进去在里面做完五种就比如说五种吧五种不同的操作再把它给送出来

那这样的话你就不需要过很多次那个狭窄的桥因为其实矩阵在这两个层之间去传递也是需要时间的对这是一个很简单的算计有化的例子就想象一下你现在有一些粮食就比如说小麦吧

然后你要把它送到河对岸去加工加工完了之后呢再送回来然后比如说它可能先变成一个中间的产物然后中间产物你还得再送到桥的另一点去然后呢它还得再过来就其实中间会有个很狭窄的桥你每次在上面去通行都会花一些时间那你如果要走很多次这个桥的话呢就会比较慢嘛就比如说你每次走那个桥可能需要花一些时间

那有些人他就想了一个方法就是说能够把你的粮食送到桥的对面去之后一次就能把这些所有的操作都做完就不用再来回折腾这个桥了那你就可以去提高运算的效率嗯那在 GPU 的运算里面就是比如说你有一个很大的矩阵矩阵要做好几次不同的运算然后呢它需要从一个计算比较慢但是比较大的地方去转移到一个计算比较快但比较小的地方

然后去做一次运算之后再送过去再回来这样就可能比较慢那如果你能把所有的这些操作去总结成一次操作的话直接把这个大子权送过去就是一批一批的送过去然后处理完了再送回来那它就会比较快

你刚才也提到就说其实大部分人是不会写到算子层的优化的但 DeepSeek 可能自己会写很多算子层的优化就是能做这件事情它这个是能力的差异还是一个意愿的差异导致的呀其实在我看来是能力差异因为我自己不太会写我就会觉得这个很难写我其实之前的时候也经常会觉得自己的一些项目可能想着比较简单然后实际上做起来比较困难比如说我去年有一个失败的项目

是让 Large Logger Model 去做这 online 的 training 就之前很多语言模型它都是直接去就是做 offline training 就相当于我有一些已经得到的数据我用这个数据里面的奖励信号在这个模型上做训练那我们当时就有一个 idea 它设计的前提是能够让这个模型去实时的生成数据生成完数据之后呢我可能会有一些比如说不管是环境给的 feedback 还是一个奖励模型给的 feedback

去知道他生成这些数据的好坏然后再去对他做训练这个过程当时我们觉得是很简单的就是说你生成数据之后我们给数据去有一个 feedbackfeedback 再回来 update 这个模型这个模型然后再继续去生成新的数据那这个过程当时最难的一点在于我们如果要写一个代码的话

它有两个路径一个是用当时比较厉害的推理框架但那个框架呢它写到了算子层的优化但是我们看不太懂但是呢它是相当于你的这个模型被 load 进来之后它就没有办法被改变了所以说呢你就不能就是说一边让它去生成一些东西一边去对它做这个模型的优化就是它是一个固定词的模型那

如果我们用这个最先进的框架它生成很快但那个模型就没法更新了那还是做的相当于之前类似的这种就是一次生成完了那我就然后再去对它进行各种处理然后再用它去优化了一个模型那还有一种方式就是我们自己写这个推理库那就没有能力真的没有能力做这个事情了就是我们要写一个能够生成的很快同时又能兼容模型不同更新的这个库那就很难了

我讲这个例子其实就是想说很多时候一些看似简单的这个操作他都需要很大的 effort 去从工程上把它实现所以说这个确实是我觉得很多可能就没有这样的 training 吧就是其实 code 这方面的教育我觉得一直是就是前沿界的可能会发展的很快但是教育可能就比较难跟得上

你刚说到这个例子让我想到他们在推特里说的那个 small but sincere 就他们来描述自己要开源的这个东西对我觉得确实是挺真诚的然后我看到这个 flash MLA 的页面虽然他今天才放出来但是在 issue 里面就是一些社区的反馈里面已经有很多人在有一些反馈了然后大家有提了一些

想法比如说有的人问什么时候我们可以让 DeepSeek 快点开这个支持 FP8 的 Flash MLA 的部署代码也有人问什么时候可以发这个支持 NPU 芯片的版本就这个你可以给大家解释一下吗就现在它开的是一个什么版本然后为什么大家比较希望它能开支持 FP8 的一个部署代码对对对其实 FP8 就是他们 V3 的一个技术就是我刚才说的一个低精度的训练嗯

那如果就是 Flash MLA 它本身是一个用来去优化 Attention KV Cache 的这个技术那如果它结合了模型低精度的话它就会更快其实我觉得就是比如说它的不同的技术它现在可能是一个一个开源然后可能大家都想把它综合起来吧然后到时候就相当于是有一个统一的库我说我想用哪个部分就用哪个部分也可以不同的部分叠加到一起这样

那我觉得他们也许真的有这个计划因为他现在那个大的页面叫做 DeepSeek Open Infra Index 对吧那好像就是你说的这样一个 infra 的各种工具的一个指引就看起来他是会陆续开源一些的对对对就是还有一个比较

需要 effort 就是比较需要精力去做的事情就是它可能会开源五个库但是这五个库怎么综合起来当然所以是一个方面然后另一个方面就是把这五个库合并成一个库然后你可以随时随心地在里面去调用这五个库里面不同的部分那这个可能就是需要把它 merge 起来那这个 merge 的时候可能也会出 bug 那就需要一些努力

像就是这种开源项目它发出来之后这个 merge 的工作是 DBC 和自己的人主要来做还是社区里一些厉害的人也会来贡献这件事情我觉得这个就看他们自己的这个计划但是社区里的人付现这些技术应该还是挺积极的我之前其实看到有非常多的就付现各种各样的他们技术的这种工作

那接下来我们可以从这个 Flash MLA 聊得更广一点也就是我之前一直很想找人聊清楚的大模型开源到底是在开什么怎么开因为它可能跟以前的一些传统的这种软件开源还不太一样然后首先我觉得有个特别实际也有用的问题就是想请子涵带着我们去看一个开源的 GitHub 的页面

因为这个页面里他会有不同的一些蓝有些不同的子页面你可以给我们讲讲就是我们进到一个这样 g hub 的开源页面里面主要是要去看一些什么正好也可以覆盖到一些开源的基础要素我们可以就看一下今天这个 flash mla 的页面吧好的好的所以我需要去共享一下我的屏幕对吧对

你可以先按你的逻辑讲一讲如果我有什么有疑问的地方我再问你其实我们可以先从 DeepSeek 的主页开始看比如说在 GitHub 上你可以进到 DeepSeek 的主页对吧对就是比如说如果我看到 DeepSeek 的主页的话其实这里有很多不同的功能比如说这里有搜索你搜索的时候你就可以直接搜 flash MLA 然后它就会出现一些代码然后你可能就会看到这里面有 flash MLA

其次就是可能会在这里面去找比如说这里面也可以去找一个有没有自己比较想要的库所以说就可以直接从这个地方点进去可以先给大家解释一下库的概念因为它其实这个主页的一个主题它就是放了很多库就是叫 repo 你可以讲讲这个

对一个 RAPORTS 它就是相当于一个比较完整的能够实现一个比如说我们说算法或者说实现一个概念的一个仓库对其实 RAPORTS 我觉得它把它翻译成仓库会比较合理

那实际上这个仓库里面你可以放代码也可以放很多别的东西比如说我之前有很多人在上面放自己的大作业那是不是其实也可以放小说是可以放小说的对就是其实很多人在上面放自己大作业所以说它其实并不是单纯一个写代码的东西就是你很自由你想放什么放什么就比如说你随便点进一个库的话

你就可以去点这个 code 你就可以去下载它然后你第一个是可以直接 download 下载第二个就是说我们 copy 这个界面之后然后你在你的电脑上去输入就是你在比如说 VS code 这些主页上你就输入就是 git

然后这样的话就能够把这个东西下到你的本地下到你电脑上也是一个比较方便的方式那我们回到这个 DeepSeek 主页的话就是你看到它这个库里面就它在陈列的时候就比如下面到这个页面它前面也会标一些语言对吧比如刚才你就提到这个 FlashMLA 它是 C++的所以它肯定大概就是写到这个算子层的一些改进的因为它是个比较底层的语言然后有的我看它标的是 Python 对吧嗯嗯嗯

那像 DeepSeek R1 它前面并没有一个编程语言的标识这是为什么呢因为他们目前就是把它当成一个传递他们自己的这个论文的一个库就实际上这里面主要是讲的是他的这个论文的一些总结

它这里面其实你看它就是一个说明书可以这么理解它是一个说明书它并不是详细的说你要去怎么做比如说你看到它这里会告诉你怎么样去 run 这个 DeepSeek R1 models 然后它在这里面就是告诉你怎么去跑它然后你 run 这一行代码就可以跑

但实际上它这个库里面主要就是这些东西然后它其实 R1 相关的 training 的东西的话我觉得他们可能是之后会开源就是目前还没有开源我的意思是它训练的框架等等但是其实大家每个人的复现它都有自己复现的结果所以说其实也还好就是他们自己的这个方法可能会有更多的像我刚才说的算子上的优化之类的然后也是很期待他们之后能把这些东西开源出来

OK 那我们接下来就可以进到一个库的主页因为刚才是在一个机构的主页那进到一个库的主页就是你会看什么我们可以以这个 Flash MLA 为例吧对对对我可能会比如说我看到 license 我就先说 license 吧比如说它这里面就是 MIT license 然后 MIT license 就是基本上是很短的一个 license 然后它没有什么要求

它比较重要的要求就是这个 SEASSEAS 比较通俗的理解就是我开源这个库没有收你钱所以说呢你用我这个库出现问题了也别来找我免责声明是吗对对对然后其实我觉得 MIT License 就是这样的一个特点吧它比较宽松然后也最大程度的去保护了就是开发者的利益我看 DPC 和大部分的项目都是 MIT License

绝大部分对然后这个是一部分然后另外一个的话我可能就是先从这个 readme 看起吧然后 readme 里面可能就会有一些你要是怎么装啊然后你要怎么去测试啊之类的就是比如说他这里就会写你要怎么去装他相关的依赖嘛然后这个就是说你装完之后可能会跑的第一个指令就这个指令的话基本上就是你所有的对这个库了解的一个入口

就是 benchmark 那一栏是你要装好之后跑的第一个指令对对对我可以跳到另外一个上面举个例子就是我可以跳到我自己那个上面举个例子对就比如说我们这个库的话它不是 GPC 感二万加 A 正版然后其实下面要跑的也是类似的概念就是比如说你可能会看到两行代码就第一个是 setup

就是说你要把环境装下来然后第二个就是 download data 那相当于也是一个类似的然后这个做完之后呢你就可以去跑这个第一行指令就是 batchchain.sh 相当于你需要去通过这个代码来对这个库有一个基本的认识那我就跳回来嘛我还是用 deep-seq 指令就是比如说你看到 python test flash mla.py 那就可以点到这个里面

去看它然后这里面的比如说它可能会有一些调用比如说 from flashMA import 这个之类的就是说这是一个入口相当于它从宏观的角度告诉你我们这个库在干什么那如果你想要去了解一些细节的话你就要点到这个里面去看比如说你点一下它然后你就可以看到它的这个 definition 那你就可以进 definition 去看这些细节然后你还可以退出来然后你比如说再点到这个里面去看你又可以去看到这里面的一些细节就逐层的深入去了解这个库

还在 flash 上面会哭的应该是没有但是大概是这么个意思嗯

OK 所以接下来你会看 Readme 对对对你还会看些什么我其实主要就是通过 Readme 去就是了解这个库的一个窗口吧相当于是我进了这个 Readme 我就知道这个库大概是怎么组织的我就能够一层一层的去点到它这个里面我感兴趣的地方然后相当于是以一个竖状图的形式把这个 Codebase 给学下来其实我还有一个点就是这个我不知道算不算是一个比较独特的点就是我看 Codebase 我一般不看它 star 有多少我一般看它医学有多少

明白就我解释一下就 star 可以算是点赞对吧对这 issue 算是评论嘛就是点赞的话比如说就是 star 然后它可能更多反映是浅层的使用你这个库的人有多少就每个人他 star 之后他可能就会去用用你的库啊然后就是用它来去做一些事情但是 issues 呢一般它这里面就是主要是问问题或者说问 bug 的

就是我们可以看到这里面很多的点啊比如说你能不能适配什么然后比如说有这些不同的需求吧然后比如说什么 metricsinvolved 然后这个 compiling error 对也有一些报错什么的

就自己遇到问题对对对他们遇到问题就会来这里讨论那我觉得这某种程度上是一个证明他们深度的去玩了这个酷并且是实实在在的对这个酷有一些 comments 有一些评论那就能证明他就是玩这个酷的人是真的很深的去在玩

你这个补充很好那我以后我也知道要看什么对对对然后我想问一下就是关于 issue 的这个地方因为它这个上面分了两类一个是 open 一个是 closed 这个区别是什么这个区别就是如果一个 issue 没有被完全的解决的话那它就是 open 然后如果解决了它就是 closed

那我想问一下因为它目前的这个 Flash MLA 的 Close 的你们有两个嘛然后其中有一个东西是个好东西但在生腾上用不了这个为什么被解决了这个是它自己解决的就是发的人自己来勾解决是吧对 就是可以有两个人来解决吗一个是发的人他可能自己不想再让这个话题被讨论下去了他就会关掉它或者说他自己又解决这个问题了就比如说

他这个只是一个 comment 然后可能有些是自己遇到一个 bug 然后他就自己说不好意思我弄错了我解决这个 bug 了他就会自己关掉然后如果这个 bug 真的是开发者的问题那就开发者就把它关掉然后这个的话其实就是这个人他自己把它关掉了明白这个不是一个典型的 close 的这不是一个 bug

他只是在评论为什么这个东西现在深藤还不支持对对对比如说这个什么 DeepSick 交流群那也是一个被 close 的那就是说他在这个官方的 rebel 上面就相当于发了一个广告嘛那其实也是不太好的然后就被 close 掉了我看他这个群发出来有 40 个彩

对对对有 40 根彩其实像这里面就比如说你正常提问的话那应该要么就是解决了才会被 close 就是一般都不会自己发出来自己 close 然后我还有一些问题啊就是在他上面这一栏里面就说这个 issue 之外还有一个叫 pull request

这个是什么呀对这个就更深层了比如说 issues 可能是你对这个库有疑问那你可能要去上面去比如说去问问题然后你自己本身是不指望去解答它的 pull request 的意思是我对你这个代码做了一些我主动就是可能说是免费的为你这个代码做了一些优化我想把它贡献进你的这个库那所以说它就会有这个 pull request

然后相当于是比如说你点进去的话它就会告诉你它希望去解决一个什么需求然后针对解决这个需求你点进这个 file change 的里面你就可以去看 OK 它改了哪些内容比如说加号就是它自己加进来的

然后减后就是说他删掉的然后你就可以去对比那这个项目的开发者就看到这个 pool request 之后呢他就会决定是过还是不过但是其实这个也有有的时候就是项目的工作人员自己就开发人员自己去存档嘛就比如说还是拿我自己这个库来举例子就我们组的这个库其实有 30 多个 PR 就是我们自己比如说做了什么改动就会往上面去 PR

那其实我们是把它做成一个比较透明的过程然后实际上 DeepSeq 它是本地已经做得非常好了它再去放出来那它就不太需要就是开发者自己去 PR 所以你们把 Pool Request 简称为 PRPR 对如果我在这个 Pool Request 里面在这个 PR 里面我能看到说这个东西到底是社区来给它贡献的还是开发的机构自己贡献的吗从哪能看出来就是点开这个人吧然后看这个人他是不是 DeepSeq 的

OK 这个人虽然不是 DeepSick 但他是 PKU 的我看出来了就你现在点开了这个人有可能吧我也觉得他应该是 PKU 的吧然后还是什么 Badass 的其实就是点进去看那个人他是不是 DeepSick 的或者说是不是这个库的一个贡献者机构的所有者对对对明白所以就是他也不是直接给你标示出来的就你可能要自己看一下对对就是自己看一下

那我觉得这个也是一个很好的去看一个开源项目的社区参与度的一个东西对不对对但 pool request 里面有价值的不太多可能因为我没有深度在这个项目里面因为很多时候大家就是说可能也不会去特别深入的去给不同项目起 pool request 吧我觉得有是有但是目前就是没有出现一个特别强的 motivation 能让大家主动去做这个事情

唯一的 motivation 我觉得就是热爱嘛对吧那你还能有什么 motivation 呢又不给你钱然后也没有什么实际上的物质报酬所以说做这个事的人还是比较的少那这不就是开源精神吗对对对这开源精神它首先需要热爱去支持然后我觉得同时也是需要一个对应的体系来鼓励这个事情的嘛就其实 GitHub 它自己会有一些鼓励的机制比如它可能给你在这里弄一些小奖章之类的但是其实这个我觉得它的作用就见仁见智了

嗯就如果你比较追求在社区的这种影响力或者就是你做这个事情你自己有小小的成就感我觉得这种小奖章还是有一点激励作用的对对对那刚才我们看的这个 flash mla 它还是一个比较简单的库对吧对就相比于一个大模型的这种开源的库来说我觉得它是个比较简单的库嗯那我觉得接下来我们也可以来聊聊大模型的开源然后我觉得这可能是一个分层的问题啊就是

到底这个大模型开源是在开一些什么东西因为它里面涉及到很多流程和环节有训练的这个部分然后有推移的部分包括模型它可能还涉及数据级然后也涉及它的权重所以比如说我们现在来说一个模型是开源的它一般是哪些部分是开放的然后哪些部分其实即使是一个开源模型它也并没有开放

这是一个非常好的问题就是有不同的开源的层次吧第一个当然是这个是必须要开的这是技术报告这个你不开那基本上就是可能后面的也都不太会开

他们肯定一般会有一个报告出来有报告不一定有代码但是呢他可以跟你讲一些他的技术那比如说 DeepSick 这个就是一个很明显的他把所有的东西都讲得非常清楚的一个示范吧但有些报告呢他可能讲的比较模糊

然后 DeepSeek 它每个版本的包括 V2 V3 然后 RE 这些都是很详细的技术报告对对我觉得 V3 是真的特别详细就是你觉得这几个里面 V3 是最详细的是吧因为 V3 的话真的就是我觉得就是所有的人都去 contribute 吧

就是可能要旗下在 GPC 工作的模式我觉得它就是每个人都写代码然后我说就是比如说技术组技术组非常大技术组占到整个团队里面非常多的人然后每个人都写代码每个人他都去想办法验证自己的 ID 比如说你验证了自己的 ID 能过的话你就去把它在下一半的模型训练里面去加上你的那个 ID 那它其实这里面就是可能每个人负责一小块但是加起来就会非常非常多非常详细

你刚才在浏览这个 V3 的技术报告里你拉到贡献者那一行我刚好看到了梁文峰的名字对因为这个话我们就是会觉得团队里面每个人都有贡献其实他都不只有梁老板的名字可能还会比如说 Data Notation 这些人然后 Business 的这些人他其实都会写在里面就是每个人都写在里面

这也是我觉得它比较好的一个点就是可能不会说非要区分一个什么比如说我们就这种大 paper 的话肯定是确实是每个人你只要在这个团队里面你都会做出贡献的而且 V3 我觉得它这么详细它相对于 R1 还有一个不同的一点就是它是一个 base 模型 base 模型的话它的

包括预训练然后后训练微调数据等等各种各样的工作那它这个工作量加起来肯定是非常大的所以说你有一个 50 多页的报告其实我觉得不足为奇然后 R1 我觉得它是用了 V3 的 base model 上面去迭代了一套自己的 reforcement learning 就是强化学习的方法其实它只要把强化学习方法那一部分讲得非常的清楚我觉得其实是一个非常好的技术报告对你说到这个我也想分享的一个点

因为这一次 DeepSeek R1 它是一个全民爆火的状态它非常出圈就不光是 AI 圈在讨论但是我自己的就是对 DeepSeek 它变火的这样一个传播路径的感受我是觉得 V3 当时这篇非常详细的一个成果而且它展示了很多实验

刚好翻到了这个笑容实验的这一页对对对它也展示了很多细致的实验成果我觉得当时它是在全球包括美国比较核心的技术圈层里面它是植入了一种比较深刻的印象吧就是这是一个很开放的去开源模型的一个公司我觉得当时是让核心的技术圈层对它有一个印象有一个 respect 然后这个可能是你后面 R1 然后包括它最近又在开源的像 NSA 这些东西

慢慢地获得了越来越多人关注的一个基础对这个就是我觉得他们为什么一开始就非常我觉得就是其实他们去年并不是复权我知道他们去年其实关注量远远没有今年多但是我觉得可能去年就是大家没有注意到他

那今年大家注意到他之后呢就是会去看这家公司的技术报告然后发现每一个技术报告都非常的详细写得非常非常的好那其实这个就是我觉得开源要做好的第一步吧就是说需要写一个报告就他不一定是论文的他可能就是一个流水账的报告但是需要去记录一下你到底做了什么样的事情并且是一个服务读者的形式就是能让他由高到低就是由浅入深的版

你们的技术去了解清楚所以这是我觉得开源可能最重要的第一个部分对 刚才我们讲的是报告这是第一个部分基础的然后其实还有的就比如说你的训练和推理的代码我这里就展示两个来自不同

VL

LM 他的谁在维护啊就他的维护的主体是谁基本上是伯克利的这一群人对就是可以看前面的开发者但是因为他现在就是太原生态做太好了然后所以说前列的开发者也会有一些别的就是一开始那一版 paper 他叫 page detention 就是我记得是绝大部分都是伯克利的对基本上都是伯克利的然后还有一些比如 Sanford 然后 San Diego 还有一个是 independent researcher

引力潘戴雷斯就是个人开发者个人研究者对对对个人开发者然后现在看可能就是有 800 多个 contributor 然后他其实就是想做比较的有生态的一个库然后包括其实你看他这里写了 requirementCPU CUDADEVHPU 然后什么就各种 PU 就是各种架构上他都能跑所以说也很厉害

而且很多公司都在贡献这个因为我昨天刚好和 minimax 就做他们那个线性注意力的新架构的人在聊他们当时就是把 minimax01 开源之后也是有人反馈说那我也不知道怎么去优化对吧因为你没有放优化的东西然后他们后来是把这个优化的这一部分是放到这个 VLLM 这个库里了

就他们相当于贡献了这个库对对就是因为这个库的生态做得太好了所以说我感觉其实最近有一些新的库啊比如说就是 SG LUN 就这是一个比较新的库然后他也有很多观众就他的 contributor 也很多

而且我听一些人说他可能使用的体验可能就是跟 VRM 不相上下可能有的方面还更好一些其实我们看这 VRM 的话其实我觉得做 SG LAN 的那些人可能还更就是跟潮流跟得比较紧一些因为我看就是其实当时 R1 出来之后他们是第一时间就说自己支持 R1 的代码

然后 VLM 的话可能就它酷做得非常好然后对于这种紧跟头流的事情可能就比较佛心因为我们看 SGLang 的话其实它直接会说我们就要 provide support for DeepSeek V3 R1 这些 model 然后就也是一个生态做得很好一个酷

这个我觉得是它比较有特色的一个点就是说确实是在不同的框架下面它有不同的内容可能也会侧重不同的方面比如说你有的功能我都有我有的功能你都有但是我们在优化的时候可能朝着不同的方向去优化这样子

然后这是推理库其实我想说的一个在推理库之前的东西就是它这个模型的权重然后模型权重大家一般是在 Hugface 上下然后就各种各样的数据就包括模型数据其实还有这个数据集其实也都是在上面下然后比如说这里面会有这个 Files and Regions 点击之后就是不同的这个模型然后其实会发现这是一个特别大的模型

就是它有 163 个切片然后每个切片可能就是 4 个 GB 这么大如果我们要下载的话可能就是比如说点 use this model 然后可能有不同的这个 library 比如说如果你有 transformer library 的话就是这么下载如果你用这个 VRM 的话就是像这样去下载这个 library 是不同的推理框架的意思吗

对这个其实是 transformer 这个就是 Hugging Face 在维护的库其实它就是一个推理的框架但它也不只是推理框架它也是训练的框架所以说他们目前是在用这两个比较多的可能用来去做推理的框架

那其实就开源的话可能我觉得绝大部分的公司应该会开源的是技术报告和他们模型的权重然后去开源推理框架的呢可能就稍微少一些然后开源训练框架呢可能就更少了然后这个是字节他们的一个训练框架也是我们之前做 Rajan 那个 work 的时候会有的一个框架就是在上面用的一个框架

然后它就是一个比较好的能支持 RL 的框架比如说你在 training 的时候我记得比较清楚可能就是点到这里面去然后比如说它会有不同的 trainer 比如说 PPO trainer 然后它可能就在这里面然后会告诉你要怎么怎么去做然后 PPO 里面可能还会有一些不同的并行模式就 FSTP 是一种并行去做模型训练的模式它可能还会有其他的模式比如说这里面还会有一些别的

字节开源的这个训练框架它就是叫什么 VERL 就叫 VER 对对对那它这个框架用的人多吗看起来的话肯定用的人还挺多的就比如说你看它这里提 Pool Request 也有很多然后 Sensual 可能 196 这 196 个 Close 的加在一起有 200 多然后 Issues 的话可能加在一起的话也有几百就是一两百个所以就是字节它愿意去开源一个训练框架这还是一个比较少的选择是吗

主要是开源训练框架的话要做的工作很多就比如说在公司里面去写的话可能不会那么在意代码规范但是你开源出来那就必须要把它写得特别特别的清楚所以我觉得字节他们开源自己的框架还是挺好的

所以这个在核心的 AI 研究者和技术人员里面就是自己去开源训练框架这件事情还是会让大家有一些这种好感可以这么说吗反正我是挺有好感的因为我之前用的就是它这套框架所以说陪伴我度过了一些时期

那我们刚才讲了几个一个最开始技术报告然后是权重权重主要是在 HackingFace 上可以下载还讲到了推理框架还有就是你说可能比较少的人开源的训练框架对那到数据这个层面因为你刚才也提到数据集这个数据开源的话大家现在是一个什么现状数据开源的话几乎是没有公司开源没有

没有公司开源数据集他们可能会在他们技术报告里面去写一下他们用的不同数据的比例之类的但是具体的数据开源的公司非常非常少我觉得可能主要还是出于那种信息的敏感性吧就是比如说你看完数据然后就会有些人说你这个数据里面哪些地方什么敏感性泄露了然后可能会说你这不好那不好之类的就比如说我们在网上去爬数据的时候只要是我们能看见的而且法律允许的

就爬但是呢在这些数据里面可能也有一些数据是比较敏感的比如说你就爬了所有就是很多人的个人网站这个肯定是能爬的但是你爬完之后呢它存到你的数据集里面然后别人要用的话呢他就可以通过你这个数据集去把这些人的网站啊什么都给找出来然后就是可能用他们做一些事情可能是不好的事情

那所以说开源数据的公司我觉得可能也有这个安全性的考虑就不完全是他们就是说不想或者没有能力开源可能就是有这种安全性的考虑 DVC 和他自己现在的开源涉及刚才我们说的那几个大的部分技术报告权重推理框架训练框架的哪些部分就其实我觉得除了数据级应该都开源了

DeepSeek 的训练框架也开源了我找一找对就是逐渐在有开一些但第一个开的应该是我这个 USFT 我自己的这篇我很确定它是开源了训练框架所以我把它做了这一文化嗯

这个 ESFT 是你自己的哪一个工作就是专家专业微调他说的主要就是在这个 MVE 模型里面有不同的专家每一个专家的话他会有一些特点就比如他可能会倾向于找和不同的任务有亲和就比如说在某个任务下某些专家激活可能会更明显然后我们就想那能不能通过这个特质去进行一些比较 efficient 的这种模型的微调

比如说你微调的时候你就选定几个和这个任务比较契合的专家然后就去反映它然后其他的参数你就不去微调这样的话你一方面是可以减小这个计算资源另一方面的话因为你让专业的人做专业的事了嘛去认出他不同专家可能适应哪个任务然后就把它开源出来但是这个代码写的还可以更好吧因为当时的话我们就是想着能够尽快把这个工作推出来

然后就会去开源比如说这 Evolve 然后 Train 然后 Train 里面可能还有 Parallel 就是说对它做一些优化嗯那我觉得正好也可以讲讲就是我从一个避远的状态到一个开源的状态我额外要做一些什么工作你刚才也稍微提到了一点就是说可能我自己内部写代码我的代码规范不需要做得那么好那如果你要开源让所有人都能用起来的话就是要做一些这方面的工作除了这个之外还有什么吗

我其实主要想到就是这些然后其次的话比如说你要开源你的框架一个部分但它是依赖于你现在的就比如说公司里面正在用的这个库的那你只想开源这个部分但是呢你又暂时没有计划去开源你这个整体特别庞大的框架那你就要需要让你的这一部分适配上现在已经开源的框架我当时是这个工作做了很多

因为当时他们暂时不打算去开源他们整个的那个很大的库但是我扣的都是在那个很大的库上面写的明白所以说他就会希望我能够用这个已经开的框架再重新写一遍然后我就重新写了一遍大概花了个两三天吧就是把代码变得更规范和你刚才说的去适配一个开源的公开的库它大概会占你们的多少精力啊你后面一部分已经说了啊你说后面得花了两三天那前面这件事大概占多少精力了

就是代码的规范我觉得花挺久的我花了一周多一周多到两三天这个算久还是算不久在你们这种 AI 研究人员的评估维度里面挺久的一周可以做不少事了反正我觉得一周能干很多事情然后开源只是一个优先级的问题就是比如说有的时候你觉得你的算法很有前景然后你很想去优化它你就会先优化这个算法它自己

然后有时候你觉得开源的话你要社区来去就比如说能够真正的去用上你的工作享受你的工作成果的话那开源就是一个优先的事情就其实都是优先所以说我觉得一周多的时间我跑模型我能去做很多实验了那我去做开源框架那其实就是想服务社区嘛然后去把这个东西让更多人用上

所以就是对一些本来一直在做避援的公司来说他如果要去开源模型甚至之后开源更多框架他其实是额外需要人力来支持这件事情非常需要而且我觉得可能很多公司因为他这方面的积电比较少

所以说他可能更需要对这个去多下一些功夫就比如说你开源的时候怎么把代码写得很规范其实我觉得代码写得很规范这个事很多公司或者说很多人吧就是说就是现在所有人可能代码规范其实是没有一个系统的课程的或者说没有一个系统教育的比如说我自己在美国这边比如说跟一些 cooperator 去合作的时候我就会觉得就是他的 idea 很好

但它代码的这个细节呢就是让人看了比较的难受我记得之前有一个我看别人做的工作他看原了一个方法他这个方法里面呢有三个点他就把这三个不同的文件这个三个文件呢他就直接命名叫 step1 step2 step3 然后我当时看就特别难受我就特别想跟他说能不能把这个名字换一下比如说你就换成三个不同

就是如果你这样做的话呢迭任如果想用你这个库做他自己的事情他就可以直接在上面去再加一个文件然后去把它命名成他自己要做的一件事比如他想在 step1 和 step2 中间加一个中间步骤吧

那它就不用给你命名为什么 step1.5 了对吧如果它把这个命名为 step2 的话那后面的文件名都要改那如果它只是把这个文件加进去的话它就要把它命名为 step1.5 就感觉还挺怪的那还不如就是说我一开始的时候我就去把这个库的不同的代码文件的名字去写好然后后面维护也方便

这就是我觉得很多时候大家没有意识到一个点就是这个规范不是什么一日之功它是需要去练习的需要去学的你才能够去把这个代码开得比较的让大家能够去读让大家觉得比较的舒服你说到这个点我想起来很久以前我采访过阿里的

就他们有一个大概是代码规范委员会之类的这么一个机构就是他们专门就是去写这个规则就是我不管你在外面是怎么样或者你之前的习惯是怎么样但是反正在阿里你有一套可能设计的都是很细的格式比如你怎么空格或者你一个东西前面你是应该空两个还是空三个他就会去规定这些东西他就希望就在一个大的机构里面大家是比较规范的这样我们相互来协作包括新人去接手老人的东西也比较好改对对对这个很重要

你刚刚说的这个点也解释我的一个疑惑就是文新不是最近宣布要开园吗但是他们宣布的时间是到 6 月 30 号才正式开园你觉得要这么久他还正常吗是因为确实工作量很大是吗工作量很大肯定是其中很重要的一个原因就看他们自己的计划

然后刚才也是讲到了百度第三部分也是想和子涵来聊一聊就是不同的公司接下来的一些开源策略和目前正在全球发生的开源的转向的潮流我们可以从本身就在开源的一些公司来聊这个里面当然很有代表性的是我们刚才已经说了很多的 DeepSeek 那从 DeepSeek 它的开源策略来说它一直都是选择比较开放的 MIT 的协议

然后他也一直开源的是自己最强的模型就最强模型他都有开源然后另一方面其实有一些公司最强的他是留着不开源的然后他开源的是一些次强的或者版本更小的这种模型我觉得不同的开源的策略其实就是和他公司的盈利模式还是有关比如说有些公司可能他最强的是开源的

那他可能完全赚的就不是这个模型本身的溢价他可能是第一是这个老板他可能不想赚钱他开源可能就是造福社会然后第二个就是可能他比较想做的并不是我利用模型的 API 去赚钱可能他比如说想做一些更大的事情

这个大有多大可能我觉得最大可能就是重构这个行业的生态比如说大家以后都以这公司这套系统为标准等等吧然后就比如说你不想拿开源赚钱你没有订阅费的那个公司那他可能就会开源自己最强的模型

其实也不只是 DeepSeek 我觉得很多比如说 Iron2 美国的另一个机构它也是开源了自己最强的模型它根本就不赚这个钱而且 Iron2 我记得它应该是唯一一个开数据集的开源项目它是数据集也开了除了 Iron2 之外还有一个叫 Ellucid AI 他们有个模型叫 PetiaPetia 也是特别的开 PetiaP-Y-T-H-I-A 对它这个开源开到什么程度它判你就是承担这个独自训练的风险

它这个预训链的中间的 checkpoint 也给你开就是第 0 步第 1 步第 2 步第 4 步一直到第 1000 步然后每隔 1000 步给你开一个权重

保姆是开源保姆是开源服务对对对真的是保姆是开源因为这个公司它可能它也是一个研究性的公司然后我觉得第一个开的最大的这一波公司就包括 DeepSeekIron2Elosery 就他们不赚这个钱其次就是比如说它开放小一点的这个型号的公司比如说它一方面它可能要赚订阅费

然后另一方面呢那可能就是说他还是比较想造福这个 community 那比如说一些不涉及我们当前阶段核心商业机密的这个东西可能就开掉就是他想一直在他的竞争对手那里去维持一个优势但同时呢他又想让这个开源能够去辅导更多的人吧

所以说它就会开源一个小一点的比如说你们如果是社区里面想自己去研究它那不就挺好的吗那你们就可以用到这个东西那如果涉及到威胁它的订阅费以及任何可能和它这公司有关的那就是不会开

你觉得今年我们会看到 OpenAI 开源最强的模型吗我不太确定对我就是很期待他们的 plan 最近赛马尔特曼倒是发了一个推特他说他们要开源他搞了一个投票当然现在还不涉及到最强的模型他给的两个选项一个是 O3 Mini 一个是 Phone Size 的 model 就是可以在手机端侧上部署的一个比较小的模型你比较期待他开源哪个

其实我觉得开哪个都挺好的其实都会符合到一拨人吧我觉得看他自己的计划但是我觉得整体上你肯定对大多数公司来说即使是开一小部分那他对社会的贡献肯定也是比完全不开源好但其实我觉得不开源也有他可能比较 make sense 的地方比如就比如说我其实一直在构想一个场景假如以后 language model 或者说这套 AI 不够强大了到时候开源还是不是一个好的选择

后来我的直觉告诉我说到时候可能像这种第二种公司就是开一个比较小的模型然后最强的那个不开源可能比较的 make sense 就是因为你把那个最强的模型开源了你很难防止有些人用你这个去做一些不好的事情就你刚刚这个观点它不是从完全商业的角度考虑的你其实是技术的一个社会影响的角度对吧

对对对因为比如说我之前有一次我那个推特账号被黑了我为什么被黑了就是因为这个人我觉得他在网上自己用代言模型去做了一个 agent 用这个 agent 给每个不同的人以不同的姿势以不同的角度去发推特的这个邀请邀请他去参加一些比如说就不同的事然后商业访谈或者什么等等

然后最终的目的就是让他点开那个链接就是让他觉得这个人特别靠谱然后去点开那个链接我估计他自己都在背后甚至偷偷渗了这个模型让推特用户能够更好地点进去然后一点进去之后呢你账号就被黑了黑完之后他就会用你的账号做一些就不好的事情比如说是发广告啊之类的然后我就想那

他就是用那种最强大元模型让他去以一个不太好的目标比如说骗你点开链接为目标去做 Operation 去做优化最后他迅速来模型能够骗很多人点开那个链接那这不就是一个不好的事情吗但是这个我觉得还是要一个足够强的模型才能做到的那如果以后我们有了更强的模型的话他不仅用这个去骗人他可能用这个去做一些更不好的事情比如说直接在网上就是注册一百个小号做网络暴力什么的那可能就更麻烦了

对因为我们今天前面可能大部分都聊的是开源对社区的一些贡献然后开源对整个技术进展的一些加速你最后说的这个点我觉得是一个非常好的点因为我自己就我这个经历所以说我可能对对对你自己就是受害者开源的受害者

你现身说法然后这个也想到就是跟一个投资人交流的时候我也在看他之前写的一个分享然后他里面引用了当时 Illia 和 Sam Altman 他们有一些分歧的时候他当时发过一个推特 Illia 发过一个推特大概翻译成中文就是说如果你把智能看得比人类的其他所有品质都重要那你日后的日子可不会好过对对对就是不要

太卷了吧确实我觉得他这个点说的很有道理就是其实很多时候有这么强的 AI 之后人类会怀疑自己存在的价值但是我觉得人类的价值本来就不在于智力上就是你拼智力就是拼不过 AI 的

那其实人类我觉得他不需要有什么价值就活在世界上就相当于你一个新游戏然后你注册了一个账号你作为一个玩家别人问你能为游戏带来什么你说我为游戏带来一个新玩家这就是意义这其实没有必要说谁的智力更高啊怎么怎么样的就是有时候人的一些方面比不过 AI 那就不比了呗那就享受它呗比如说其实围棋那帮人其实我觉得也经历了一个很漫长的接受的过程就是说从这个抗拒 AI 到加入 AI

就其实到最后大家就是会把这个东西当成一个娱乐就是说我知道这个地方 AI 被人抢了那我就不去跟他去做正面的冲突了我把它当成一个学习的对象我觉得也挺好的好的非常感谢今天子涵来做客晚点聊然后和我们分享了他自己经历的一些开源项目他对开源社区的一些观察以及我觉得最后你说的这个个人的想法这个游戏的比喻我觉得还挺特别的因为我跟很多人去讨论过就是说如果 AGI 真的到来之后然后会怎样

但你应该是其中非常年轻的一个人你是 00 后对吧我 02 年的可能我主要是在跟 80 后和 90 后在讨论这种问题 OK 我觉得大家确实的想法会很不一样然后也非常感谢今天来做客玩点聊我们今天节目就到这里各位听友拜拜好的谢谢曼琪非常非常开心好的好的

本期节目就到这里感谢收听如果你对今天聊的话题有观察好奇或疑问欢迎在评论区分享想法这也会成为我们节目的一部分让整个讨论更完整你也可以把我们的节目分享给对这个话题感兴趣的朋友推荐更多你想听的主题和嘉宾你可以从小宇宙苹果 podcast 等渠道关注晚点聊 Late Talk 也欢迎关注我们的公众号晚点 Late Post 下期再见