Ilya Sutskever discussed the potential limitations of pre-training in AI, suggesting it may be reaching a bottleneck. He proposed three future directions: Agents, synthetic data, and inference-time computation. He emphasized that data is the new 'fossil fuel' for AI and hinted that pre-training is just the first step toward achieving intelligence. He also explored the possibility of AI developing consciousness, questioning 'Why not?' if consciousness is beneficial.
The 'Test of Time' award at NeurIPS 2024 recognized two highly influential papers from 2014: Ian Goodfellow's work on Generative Adversarial Networks (GANs) and Ilya Sutskever's paper on Sequence to Sequence Learning with Neural Networks. These papers were pivotal in shaping the field of AI, with GANs revolutionizing generative models and Sequence to Sequence learning laying the groundwork for modern NLP.
Fei-Fei Li introduced the concept of 'Digital Cousin,' emphasizing the need for robots to understand multi-dimensional information such as material, depth, and tactile feedback. She highlighted the importance of virtual world testing for faster generalization and discussed the challenges and opportunities in SIM2REAL (simulation to reality) applications. She also stressed that AI should augment human capabilities rather than replace them.
Jeff Dean highlighted Gemini 2.0's advancements in multimodal capabilities, including native audio input/output and integrated image generation. He also discussed Project Astra, a personal AI assistant, and Project Mariner, an automated web interaction system. Dean emphasized the importance of coding skills and the need for specialized hardware beyond current TPUs to support future AI developments.
Spatial intelligence is crucial because it enables AI systems to understand and interact with the physical world in 3D, which is essential for tasks like robotics and real-world navigation. Fei-Fei Li and other experts argue that moving beyond 2D data to 3D understanding will unlock more complex applications, such as autonomous vehicles and advanced robotics, making it a key area for future AI breakthroughs.
The AI industry faces significant challenges with data scarcity, as current models rely heavily on internet data, which is finite and largely consists of 'result data' rather than process data. Ilya Sutskever likened data to 'fossil fuel,' emphasizing its limited nature. To overcome this, researchers are exploring synthetic data and new methods like inference-time computation to continue scaling AI models.
Synthetic data is seen as a potential solution to the limitations of real-world data. It can be generated to supplement existing datasets, especially in areas where real data is scarce or expensive to collect. However, there are concerns about its diversity and authenticity, as synthetic data is often based on existing distributions and may not introduce truly novel features.
Jeff Dean believes AI will automate routine and repetitive tasks, freeing humans to focus on more creative and innovative work. He sees AI as a tool to augment human capabilities rather than replace jobs entirely. This shift could lead to a more efficient and productive society, where humans engage in deeper, more meaningful tasks while AI handles mundane responsibilities.
Fei-Fei Li's 'Digital Cousin' concept refers to creating virtual environments that simulate real-world conditions but with variations in factors like lighting, material, and texture. This allows AI systems to generalize better and faster by training in diverse, simulated scenarios. Unlike 'Digital Twin,' which replicates exact conditions, 'Digital Cousin' introduces controlled variations to enhance adaptability.
The possibility of AI developing consciousness raises profound questions about the nature of intelligence and ethics. Ilya Sutskever suggested that if consciousness is beneficial, there's no reason AI couldn't develop it. This idea challenges traditional views of AI as purely computational and opens up discussions about the ethical and philosophical implications of creating conscious machines.
欢迎回到 Indigo 数字景象的新栏目 Indigo Talk 我会不定期的邀请朋友们来和大家分享科技趋势的新思考欢迎回到 Indigo Talk 今天我们正好在 Neurops 的活动快结束了我这次有两个从硅谷来的好朋友
带领我体验了一下这是神经网络里面的学术会议我是第一次参加然后今天我们在周六正好邀请的两个朋友一块来和大家分享一下这么四五天左右的所见所闻在这次活动上的好吧我觉得这个我们这个录制应该比较及时我们还
活动是礼拜天结束然后我们改在礼拜六但是所有的大佬们的演讲基本上都出现了而且好的论文也看过了所以说呢我今天就邀请这两位朋友和我一块来分享这一次的感受和想法然后呢我先介绍一下在最左边这一位是 Sonya 她来自于 Meta 前 Meta 现在也是准备在硅谷这边来做 Fund 的投资然后中间这位是 Jay
现在在硅谷做 AI 的创业而且他是怎么说呢他自己介绍他神秘身份我们介绍一下因为这里我觉得看 AI 的 paper 应该 Jace 是最专业的因为他过去参加过几次连续的 Neuron 的会议所以说他这次也会带领我们主要是带领我因为我之前没有参加过第一次参加学术会议
所以说带领我来感受一下这个会议要不大家自由去自我介绍一下吧大家好我叫 Sonya 然后我之前是在硅谷的一个大厂里面工作最近的话有做一些创业然后有跟朋友想要去做一些 fund 然后反正也结交各种非常有趣的朋友这样子对
然后 Jay 大家好我叫 Jay 然后目前是在硅谷做 AI 的创业平时也会做一些投资这次非常开心然后在这边参加 Libs 的时候碰到了 indigo 对所以就巧遇哦巧遇巧遇是的是巧遇其实我们上一次的硅谷就好了
约好了我们说这一次一块来看一下这个活动的好吧我介绍一下可能很多人不知道 LUX 是什么对 LUX 开了半年应该有 30 多年的吧还是更多 37 年的历史然后这次学术会议就跟什么理论物理学什么化学医学这种类似的学术会议一样的他只是说
AI 神经网络方面的一个学术会议然后我记得 Jay 以前跟我说过在 2014 年之前这个会议才 300 人参加就很早的时候对我第一次参加这个会好像是 2011 年的时候对那个时候就只有两三百人然后到 2018 年的时候就已经蛮多人了很久就千个
今年可能有可能我没有具体的看过这个统计的数据哈但是有可能我觉得应该是有一万多个呃根据这个一万多个都不止是吧就根据这个人流来看的话绝对不止因为他有好多这个 side event 嗯对 side event 这个会很多人不参加组合赏嘛因为你要做 social 你组合赏没必要嘛都是听学术报告的大家很多 side eventparty 啊什么东西那我估计有三万人以上哦
哦反正就是参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参参
AI 这两年太火了因为 HRGBT 很 openAI 然后在之前其实在 2018 年 2019 年它其实已经比较火了因为那是上一次 AI 革命对就是我们说图像识别从语音识别然后现在这一次革命就是大语言模型我们现在正在这是革命之中对这是革命之中然后我可以再介绍一下在这个活动上面觉得这一次正好有
好几位大佬,好几位 AI 系的教父和教母教父没来,Hinter 没来,Hinter 不方便,Hinter 不能坐飞机然后教母李飞飞来了,李飞飞做了一个很精彩的分享教父的学生来了你可以说谁,哪位学生?Ilya,最得意的门生,对吧?对对对,然后
前 Chief Scientist 现在这个 SSI 的创始人对然后呢我们还在一个分会场上看到了 Google CTO 吧应该是这个头衔吗 Jeff DeanJeff Dean 是 CEO CTO 吗应该不算应该是 Chief 的
OK,Jemmy Lange 是三个 tech leader 之一反正是大神吧因为以前是 Google Brain 负责然后后来因为拿进 Google DeepMind 合并了之后他的这个 Rule 有所变化 OK,好吧,这个大概的一些背景就是来了一些什么人然后上面这个地界的规模是什么样子的那么我们先来聊一个话题呗就是我觉得
最意外的是我觉得是昨天啊周五我们昨天正好是叫做
叫做终身成就论文颁奖是吧 Test of time 实际检验奖时间检验奖这个奖项名字特别好而且一定是十年对 十年那么现在是 2024 年对 2014 年的对 2014 年我昨天 Transformer 什么时候得奖对 还要等三年 OK 2014 年那你们介绍一下您让我介绍得奖的两个论文
对 得奖两篇 paper 因为其实平时的话他一般都是只选出一篇 paper 做了这个 test time 但是今年就是选出了两篇因为这两篇都是重量级的而且非常 influential 的然后其中一篇呢就是 Ian Goodfellow 的一个 game 对一款深层网络
然后第二篇的就是 Sequence to Sequence 是 Elai Zascaver 作为一作的也是对于这个 NLP 其实他是做这个 Machine Translation 当时是做 Machine Translation 那个还是在大元模型就是 LM 出来之前的嘛对了解那这两篇
我们没有料到 Illya 会出现的我们本来还以为 Ian Goofalo 会来但是 Ian Goofalo 因为他有 Long Covid 所以他就做了一下远程的分享做了一下 remote 的一些分享然后是由他的合作者来分享 paper 本身但是 Illya 是亲自来了做了一个还挺重磅的一个风险可以给大家分享一下他的
你从你的角度来看因为你之前在这个领域里面干的时间比较久对对这个一定要这个分享你什么嗯
对我理解的是他其实先首先先回顾了一下这十年的一些工作把原先的那个当时获奖的这个 presentation 他就是照搬过来了然后他其实我觉得他的那个我后来其实在这个社交媒体上也看到了很多大家在评论说是不是说 Elia 传达的这个信息就是这个 pre-training 就达到这项目就 head was 了
对吧然后这个 scaling loss 就也许就可能不能再 persist 了嗯
这是我在有些社交媒体上别人的某一些解读但我觉得它其实也并不是完全是传达这样的意思我觉得 more like 就是传统的无监督的这个 publishing 因为语料的关系但这个语料因为是在他就说因为我们就只有一个 internet 因为这个 internet 上数据已经被 exhaust 但是呢就所以呢他觉得如果是要靠这个预训量而且是要靠这个数据来做的这个预训量
来 improve 大模型的 performance 可能就到了瓶颈了但是它又讲到其实可以通过不一样的方法比如说 AWN 比如说他们的 agents 或者说是合成数据来更进一步的把这个 scamming log carry on 下去
这个是我得到的一个比较重要的对比效果我觉得他提到的意思提到了这个意思我觉得是不是在分享 super intelligence 就是 what's coming next 而且是 long term 然后他就提到了 why not
如果意思有好处对 如果意思有好处我们为什么不能为啥其实我记得在大概 12 月初的时候 Penton 他其实也分享过类似的一个他是说主观体验就是基础的一个主观体验因为人的意识可能但也是一种学说嘛就是分为可能基本的一些主观体验和比较高级的一些主观体验
但是 Hinten 说其实如果我们只考虑比较基本的主观体验的话比如说他大概说的主观体验这个产生一个过程就说一个 AI 如果他通过自己的推理在思考对一个事情产生的认知和这个 reality 到底是怎么样的其实这中间可能是会有些 gap 当他也理解到这一点的时候
他就相当于产生了一个他自己主观的一个想法然后 Hinton 当时就说可以把这个主观的体验来做为一个我们所认识的也不是说我们所认识吧就是给这个 AI 赋予所谓的意识但这个意识其实就是可以通过计算来达到的
对,正好我在前两周的时候看到写了一个,Riche Sutton,他写的《苦涩的教训》,很有名嘛,我们来说有很多必读,然后他做了一个采访,阿尔伯塔大学的一个恋爱采访,他说到了这个意思可能是什么,他就说可能就是目标,
就是我的目标所有的目标可以通过算法把所有的小目标然后做个会计成一个更加抽象的对比如我现在想拿起这杯水这是我的目标我现在就要喝它对你所有好多好多种小目标然后他的算法会涌现出用结合起来结合涌现出然后会形成一个我想上大学我想干他一个更加抽象的工作这样的目标他就这个如果达成了他理解有目标能做 plan
还能反思他就把这个定义成这个意识了对他也是高级意识活动对这个已经是比较高级意识活动就已经能换了已经能守了我刚才说的那个还只是一个主观的体验对他其实没有完全把它上升到这个哲学的层面只是说可以通过计算达到的对就是这个比较是比较浅层的一个就主观体验比较浅层的一个意识
因为他们就不想把它上升到太高的一个哲学的高度上去说这个事对不过最终还是分不开分不开的嘛是吧这个 AI 转往后面走解释不了这个哲学了是吧因为大家都在研究思维思维是什么或者智能是什么这都只是一个哲学解释就跟昨天我看到中文互联网上面有伊利亚那一张 PPT 截图是吧那个
预训练到头了,end,end,是吧?然后伊利亚其实现场并没有这样讲,他其实没有这么讲,他只是说,可能就是说,对,他可能只是说就是我们这个 hardware 还是有的,然后我们这个 infrastructure,就是这个模型的 complexity 也还能 goes out,但是 data 确实是,他用了个 data is the new fossil fuel in the future,就是像现在的这个世界就是,
这个石油就是我们的这个 fossil fuel 是吧就可以让这个有电有车但是可能未来让我们模型更 powerful 的是就是这个数据这个数据的这个多样性甚至这个这个 fine grain 的程度是不是个精细的程度是吧比如说我们现在只知道做数学是这样想但是或者说这个人对这个事情是这样子的感觉但其实我们现在连人类的感觉都没有 catch a gun 这就说到这个这就说到这个
对就是慢一点对刚才 Jay 就说到这个就是说人的这种感觉其实我们连感觉都没有 capture 的在现在的模型里就是所以我觉得说这个更不要说到这个还有很多 biological 的数据的这个 fine grained 程度其实我们也一样没有去 capture 到我记得 Ilya 分享一个智力和
重量的脑部的耐受然后后面有一个人提问也挺问的这个问题你们可以分享一下这个
这个观点我记得当时一个是 Mammoth 它是那个 Math 是多少克是人体多少克重坐标是脑部重量相关的一个 linear 的关系然后一个是 Mammoth 还有一个是非 Mammoth
人类的领长类还有一个是类人的领长类然后那个类人领长类它的协力就会高一些对所以呢我感觉它就是感觉上它做了一个类比或者说是有点像 inspire 大家去想有可能我们目前所探索的这个 scaling 可能是 based on 某些 factors
就是刚才我们说的比如说 data,computer 还有这个模型本身对吧虽然呢比如说 data 可能 hit 到一定的这个 walk 但是我们还可以就是通过这个合成数据来继续 continue 向这个 trend 但是也许还有另外的不同的发展的路径对对对不同的
这些因素是我们现在所掌握的因素,有可能去开发这些因素,能够达到另外一个计算法。所以我们到底是在计算什么?我记得他之前也做过一个演讲,他说:我们在计算什么?我们在计算什么?所以我觉得他其实是想来启动大家。
就是觉得大家不要被我们现在存在的这些限制性因素所局限着,看看是不是还有可能。我觉得全篇都要讲 pre-chain,你们不要锁在这个上面来,你不要锁在 pre-chain 上面来。但是下一步要做什么呢,我肯定不能告诉你们。
对也没有我觉得他也说了一些对我觉得反正他那说在自然界中就是这个人的这个身体跟这个脑子的这个比率是有一个 linear relationship 但是也不是说脑子最大的就是最聪明对因为咱们人的脑子肯定不是脑容量最大就是体积肯定不是最大所以他就像也还是就像你是 implied 说能
可能是有别的原因让我们现在人类的智能其实是比其他动物更高的就是他提到我记得好像他没有写 IP 比如说提到比如 reasoning 就是个推理的能力然后现在这种或者是
或许他没有提到但我想人的这种可以想象的能力其实也是很厉害就是你可以想象未来然后你朝你这个想象去做就好像你说有个目标但可能这个目标是没有实现可以是你想象的所以我觉得这个可能在其他能力包括就是推理能力想象能力这个呃
也是我们可能值得去模型下固执的地方但他确实提出了三个点一个是 agents 一个就是合成数据 synthetic data 然后第三个就是这个 inference time compute 就是推理时间的运算的这方面的 skilling 因为我当时觉得他放这个图还是有点心机的什么意思呢因为就是领长类可能体重增加没那么快但是那个老容量就是很快的
长得少智力长得很快你看那个鲸鱼是吧它长得那么大它也没人类聪明对吧然后呢它其实如果说把体重变成我们的训练数据它说应该可以不用那么多训练数据也可以变得更聪明应该是这个暗示所以说而且它说一句话就是说可能我们现在 pre-training 只是让我们达到这种智力的第一步它就说这是第一步我们有可能还会在我们解锁了这样一个方法它希望鼓励应该这个是在它
好像回答提问的时候应该是不是更多的去在大脑里面探索到一些新的发现的时候我们就能够有新的方法对对对但他其实也并没有具体说这个因为他提出了就是说是比如说像欧文对吧欧文里面比如说有一些这个做一些这个
RRO 方面的一些就是平衡效率就是那个探索和这个 search 的一些评划还是 self 的一些 verification 就你有一个 verifier 嘛对吧 自己评价它啊还有别的还有一些什么思维链的这些但是他们他自己的这个公司因为他其实也还是虽然他是做这个 safety 的这个 super intelligence 但他其实也是要做这个大模型的信息扬长但他虽然也没有具体的提出到底是用
就没有透露他们想要去探索 scaling law 下一步该怎么走他具体也没有说这个就给大家留下了小讲的空间正好接着这个话题因为 Illya 最重磅今天每天上所有网络上都是她她就是来一家走的正好昨天周五我觉得是
就是之前 OpenAI 它最新 release 的模型其实也大致可以验证到就是当时我记得是 GP4 出来之后大家就觉得这个语料其实已经很大模型也已经很大了但其实当时它做一些很难的这种问题比如说特别是数学需要多步思维的题目它做的其实不是很好后来我记得它不知道是出了 O1 还是
O1 mini 我叫 O1 然后他那个时候他的这个 reasoning 就是他的这个推理能力就大步的往前然后他训练模型好像反正据网上说是他也在训练模型时候给了他很多就是一步步如何去解这个题的这个步骤而不是说就是那种
没有结构的预料话丢过去所以就是说这个一步步如何去拆解一个问题这个思路本身就这个推理的本身可能确实是下一个突破口我相信现在只是很简单的一些还有更深度推理肯定所以我觉得这个真的是一个很值得
对正好在他这个话题后面因为我近期我不是这个行业的不是这个 AI 这个专业的所以我只能看到一些比较通俗易懂的这种 podcast 分享正好有两部一个是采访的昆教授的最新的一期特别长的一期一个半小时两个小时左右的应该是印度的一个企业家采访他的他在里面讲到他肯定要推销自己做的东西嘛
他做了一个叫 JEPA 架构,就是一个更像人脑一样的结构的思维,这个算是架构的变化,他总是在鄙视智慧规,但是一定要干智慧规的,但是我觉得智慧规里面其实它足够压缩数据,所有的采访都能够有一个现实世界的投影在里面,
其实他有视野模型的但是呢 LeCun 教授就是说他可能有他的这样的一些方法来牺牲专门的视野模型这是一个架构上的然后另外可能也是在前面提到 Sarton 教授在也是接受最近的一个 podcast 采访因为他提早就有采访了嗯
然后讲了这个现在我们叫做预学习是吧就 pre-training 其实他这边一直在讲的就是要持续学习持续的学习这个概念就是后面他也鼓励很多学生要把精力放到后面去他和那个 LeCun 两个一样的你们要把东西往后放你做研究课题的时候
要往后放在持续学习上面还有什么新的方法来解决问题我觉得这两个应该就是你说持续学习就是肯定的对包括后面的这种推理这种都算是持续学习的包括计划计划能力通过少量数据样本数据来学习能力对吧包括 O1 它也通过少量的这种数据现在它不是做了一个后训练的一个
对,这也是一种回放学习包括就是就 suggest 一些就模型可以 suggest 不同的一些 options 然后你可能可以选择其中一个就是做一个 reward model 然后可以用这个 RAL 来选择其中一个然后再用另外一个模型去 verify
然后就是通过这么一步一步的让这个就本身的这个推理过程就是更加的 accurate 更加的 reliable 那这个最新 OpenAI 放出来的就是它不是要生产链先放 12 天直播吗第三天还是第二天放了那个叫 RL Tending 就是在强化学习阶段里去
给他微调数据这个东西是不是应该是这个阶段的一个成就对对我其实我这个要打断一下就是我说的你说的这个第二天呢他是说是哪一个模型啊就是在他第二天直播发了一个功能就是你可以在强化学习阶段去做翻译 turning
但是你说的强化学习现在是指在后续年的时候对吧那是的就是用这个用这个 RL 去做因为一般的话我们在做这个 fine tuning 的时候你可以用 SFT 就是 supervised 也可以就是 RLHF 但是这是 human feedback 但这个就是 RL
对然后现在你说的这个有可能是指不是有可能你现在说的这个可能是指就是在这个 Test Time Computer 就是 Inference Time Computer 的时候对就是其实可能是我刚才刚刚描述的那个就是先 Propose
先给出一个 search space 然后 generate 出来一些 proposals 然后呢就是给每个都用一个 reward model 然后用这个 RU 的方法去选择一个最好的一个路径然后再用一个 verifier 去 verify 它了解我感觉这个事情后面两面性了 OpenAI 用这种方式可以搜集到更多
专家领域的人类的思考过程数据这个是因为你要把你的很多数据传上去发言推理然后他没有我没有看见面网因为他说明年才开放明年年初才开放给研究机构公司上面是不是他不承诺用这个数据的训练或者说默认我先拿去训练只不过说你不让我用我就不用谁知道因为我觉得之前也了解过一些朋友现在其实训练数据就差
很多专家人类的这个思考数据过程数据因为互联网上昨天 Iliya 说互联网上的这个我们的互联网就一个这个这一话我记得很清楚 Only one internet 所以所有的数据实在是用完了然后互联网上的数据有一个特点它都是结果数据
没有任何过程的数据所以说机器永远都是快闪现出来然后一个结果给你就像他说的 0.1s 对吗所以说我觉得现在 OFMI 就要想有一个更加好的方法去把我们的这种数据给收上去然后他用了一个可以帮你强化的你的过程我觉得这个事情两面性这也可能是他们那个 invoke
采集更多的数据,采集更多的专家的如何思考的 step by step 的数据。我们正好,其实我们一直在聊,刚才说数据没有了,首先顺着 Ilea 这次分享,就是我们碰到了踢到墙了,可能 Pretrend 踢到一部分墙了,但是后面还有很多方法,但是其实还有另外一个领域有智能,其实就是那一天火的,就是叫做,
空间智能我之前做 podcast 我也跟大家分享过一本书叫做 A Brief History of Intelligence
就是智能减死这本书我给所有人推荐写的非常好对于我这种半表水的人来看我觉得挺好对然后他里面就讲到了其实包括李飞飞最开始他在 Time 上演讲去年他也用了就是看见生物为什么航空武器生物为什么大爆发因为他们长了眼睛对
对对有看见世界了就是有了这个 vision 以后大大促成了这个语言是什么时候诞生的语言是我们几十万年前才有的但是眼睛看到的是两亿年前就有了所以这有差不多两亿年两个多亿年的进化对从脊椎动物到哺乳动物因为脊椎动物多眼睛嘛对然后哺乳动物肯定有眼睛嘛没有哺乳动物没有眼睛蝙蝠
对视力非常强的只有发射波 OK 所以说两亿多年进化实际上按照生物来看它的要比要比语言久太多了空间智能所以说应该我个人我个人看我专家在这里做的我觉得是不是我们下一次或者其他一个热点或者说从不管是投资上来看或者说是研究方向来看空间智能可能会意义很大还会大于语言模型
可能为的不对我觉得就是怎么说呢这个问题有点大所以你是觉得就是空间智能会比语言模型对这个智能的推动发展
作用更大那你指的这个作用更大是就是以哪些 Metrics 来衡量的智能就是作用这是我们要让一个真实的机器人物理设备在物理事业中思考移动看行动这个意义的能够释放的我们的劳动力市场人类的会比现在的圆模型对知识工作者的释放还要更大
这是从经济价值上来考虑的这是一种正好李飞飞也分享了这个话题要不介意给大家来概述一下李飞飞的观点我觉得你要不要分享一下我随便分享一下
其实我觉得李飞飞他这个因为我其实之前有断断续续听一些这方面的东西但是我觉得这次李飞飞给了一个有种前世今生的一个 overview 的感觉就是他从就是说我们从就是可能现在是有这个语言模型是吧然后到可能但是现在其实如果我们要有个这种巨声智能就是 embolizing AI 的话我们其实不但是只是有这个 language 我们这个眼睛也得
也得有虽然我们有别选但是这个这个深度是不够的还有就是这个手上的这种活动所有的这个 task 就我们人类的手是非常灵巧但现在机器人的手其实远没有拿到这个然后还有就是这个 body 就比如说你知道这个东西看起来很脆弱你知道绕开的但现在机器人不知道他可能就他就直接就撞去了他可能就是无法知道这是一个陶瓷碗我撞到哎
是有事的但是这是一个什么玻璃瓶状况其实无所谓的就他不会对于这个知识一方面就是另外还有就是说这个东西的材质比如说这是一个陶瓷的玩物它可能很大力就可以把它抓碎所以他还有一个研究方向是关于就是这种好像这个材质的 texturematerial 那一类的我记得我妈讲了大概可能是五到六大类但是大致就这样所以他想要从各个方面去 collect 一些 data 嗯
他们总的来说他就是想可来各方面的 data 去建一个那下一步就是什么去建一个可以这个虚拟世界就以前是大家说 digital twin 但他现在是讲的是 digital cousin 就是说我建一个大致一样的环境去寻那为什么要建一个这样的环境呢就是因为这样才能让我们有一个模拟的世界可以迅速的去演化
比如说要不然你今天上午写个算法可能周五大家一块为了更好的 generalization 对对对更快的泛化那如果有个这样子环境之后那你就可能更快的泛化那就能够快速为什么医疗方面就是说做的很慢就是因为我们很难在人体上做实验但其实 3D 也是的如果你的精心一些人就是就随便去测试这个基因成本也很贵然后你这个
反正就挺难去测试的所以如果做一个虚拟世界大家快速的去成本比较低的这种演化可能这方面就很快的就会有突破我觉得 Meta 在这上面应该做的很先进 Meta 我就不评判我不知道对也有一个很好的平台
对反正他 Meta 放他就也是一直之前花了很多这个做这个 reality lab 所以他肯定是在这个虚拟世界里面包括那触觉的手套对
采集这个数据我觉得除了李飞还有另外一家很有名的公司就是 Physical Intelligence 李飞的公司叫 World LabsPhysical Intelligence 他们前段时间也不是前段时间可能就出了一个比较有名的模型叫 Pi 就 P0 它里面就也是用了更多的这种手部的数据去做它这个训练数据
就是因为我们现在人类的很多很多这种比如说大家想要什么所谓的带娃呀洗碗呀可能都会涉及到非常多这个手的这个灵活性包括工厂里面工作如果这方面没有很精准的数据比如说我们只有 2D 的这种数据那其实可能还是远远不够去建这个所谓的这个孪生
我听到李飞飞说 digital cousin,他也解释了什么意思就是说跟数字孪生有什么不一样的地方因为数字孪生以前是 Vegan 很早以前就说了,她做了 OmniverseJensen Huang,天天吹了几年就要避这个东西但是确实在用所以李飞飞特意用一个词把它区分开
对叫做 digital cousin 因为他可以在这个模拟的过程中他可以把这个什么光线啊材质啊颜色啊什么的都可以把它稍微做一些 re-transition 就是不一样的所以呢所以你就会有一个泛化嘛可以去接受到就是你其实真实的情况中没有接受到的东西对所以所以他才叫所以他才叫这个 digital cousin 意思就是说不是完全一样的对只是有些相似的嗯对是的对但是就说这个呃
我觉得这个 World Labs 它好像从它公布的这个 demo 上来看它就是想建立一个 digital world 但是呢
其实他也是想把这个 Digital World 建立一个对 Digital World 的 Understanding 还有 Reason 他不是说有三步骤嘛一开始是一个 Understanding 对这个 3D 设计的理解然后再是 Reasoning 然后再是 Generation 因为 Generation 已经是相对来说比较高级的这个 Task 对然后
然后呢他在这个 3D 的这个 world 里面就是说不上来了对就是说让我想想该怎么表述我不觉得
可以可以我意思就是说他其实就是想在这个环境中做一些脑仿真因为说实话就是做这个 robotics 也好然后像他做这个 3D 的这个 world 的建模也好是非常非常少真实的数据的对非常少对然后你要去做这个
采取这些数据的话是 cost 是非常大的对所以呢所以呢我们他现在才想的就是用虚拟的去就是建立这个 world 嘛对对吧然后你有了这个虚拟的 world 跟这个真实的 world 以后那就变成一个 mixed reality 了所以这个其实对做这个 virtual reality 或者 XR 这些应用是嗯
以后就是会发挥非常大的作用的包括就是包括之后可能还会对 game 的 design 还有 3D models 的 design 对都会包括这个 architectural 的一些建筑的一些可视化的一些建筑对
的工作可能也都会有非常成熟的一些 support 但是目前可能没有我记得我之前大概看有些 paper 的时候就说好像它真是 generate 出来的这些东西其实也并不是一些 match 所以它不是可 programmable 的但是对对对但是呢它有可能会在今后的工作中会慢慢的向这个迈进因为当它如果是个 match 如果是可 programmable 的话就可以完全用在做这个 JD 的 modeling 的这个生成和这个 game 的这个 design
那听上去它应该可以在游戏引擎的基础上去生成但是它现在这个 simulated 这些 data 它是怎么做出来的它就是不是 sim to real 嘛对吧那它其实就是用的这些仿真的平台做的那仿真的平台 Meta 也有一个还有这个 Stanford 有个叫 Gibson 它在那个 slides 上面好像我记得也有提过还有就是 Unity
Unity,Unreal Engine 还有就是 Azure XM,就是 NVIDIA 的在 NVIDIA 这个 Unsearch 主要是给机器人用的但是 SIM to real 的话好像我也是问了一些因为我自己也不是做这个的我也是问了一些这方面的一些专家他们也就是说到 SIM to real 其实有的时候在需要这个精度比较高的时候
它的效果其实也并不是那么的好因为你要看你要这个仿真的这个颗粒度这个精细度到底要到什么样的一个程度对吧所以呢但是呢他们说在目前呢在做 self-driving 的这个用这个 SIM2RIO 做还不错因为不用开了拉手机器嘛对现在已经是 commercialized 的这个 SIM2RIO 而且 SIM2RIO 也不一定只是用在 embody 的 AI 的它就是在其他的这些数据中也是可以也是可以用这个 SIM2RIO 的
对所以就是说其实数据采集是非常非常重要也是非常有 challenge 的这么一环对了解 OK 那我自己理解一下我作为一个经常在做投资和看这个什么投资市场的人来看呢在空间智能里面的公司可以分成一种创业公司像那个
Pi 这样的还有一些大公司在做的这大公司在做空间智能有推动性的我个人第一感觉就是 Tesla 它在做这个因为 FSD 要导航对真实智能移动它肯定是有很多基础的而且当时我看到它发 XAI 的时候还特意举了个例子同样是看图 XAI 可以看到我的距离这么多公分过不过去但其他的模型都看不到
是因为他的车上装了对对对没有装这个装了这个三亿档对他的三亿档他的数据和对别人不一样这个当然是他快乐 V 的地方是吧这个也是 Tesla 和 AXI 合力的一个
对对对它如果合理一个语言模型一个 FSD 是一个自动加审核两个东西是有合理的数据上是可以合理的因为其实是这样子人类他的 perception 就是李菲菲太提到就是说对深度其实我们是通过脑子去 process 这个东西的就是说我们看那个图片我们用双目然后测试然后我们去脑部去核神说这个大致是有多远的距离但其实这只是这样我们人类也很难说我看到这个图片我到底就有多远去吧而且更不要说其实我们
我们也是会受到这个黑夜啊雨水啊各种情况的这个影响去判断这个距离的但是就像 Tesla 他这个车上装的这个测距的话他一是他有这个 image 的第二就是他具体有测这个测距之后他可以很好说那这样子的图片情况下最大概的距离是怎么样所以他有个很好的这种数据这样他就可以做一个更 accurate 的这种 formula 这个方式去做这个 mapping 从 2D 到这个实地的 3D 的距离是什么
所以我觉得这方面它确实会有优势然后第二个有这种需求的公司大公司里面就是 Meta 和 Apple 因为你们都在做 Meta 也在做 Metaverse 是吧做眼镜做个头显然后苹果也在做这个东西因为说是对我放第三个说的因为 Google 还有点不一样 Google 的模型是很厉害的然后
Meta 因为至少大家认识 Meta 和 Apple 都是在做智能设备的而且他们在上面至少是领先的至少 Meta 是最领先的然后苹果现在出了 Vision Pro 他们戴上这个头盔之后因为这个眼镜要跟人类一样感受世界很重要其实说这个眼镜里面不需要有语言模型
但他在空间感知就是我看到什么地方他也看到什么地方他能给我回馈他看到什么东西这个物体得标出来他试什么或者说我怎么躲避障碍物或者怎么样我觉得这个智能就应该装在他的未来的下一代眼镜设备里面比如说这两家公司应该会对这个会有投入的但是我知道 Meta 是有投入苹果是什么都不公开的我们不知道他在干什么我当时在这个时代其实他有点吃亏的因为其实很多 researcher 为了发论文就是为了
就是我要让别人知道我在干什么但是苹果不发很多东西所以就不去谈了但是也许他下一个公布也会是一个惊喜对对对有可能会有惊喜这就是我个人理解这两个公司在做然后最后好像就是第三家公司就是 Google 就是 Google 呢
Google 它的有但是 Google 是万年老二对做硬件的它永远都做是老二它做的眼镜也是做的手机也是做什么东西都是的这永远都摆在屏幕上而且有很多失败的这些对但是现在 Google 手上有一个很好的东西就是 Jabin.ioJabin.io 在开会的时候正好
头一天正好发布了 JMILI 2.0 然后第二天我们就在一个 Site Event 上 Turing 的 Event 看到 Jeff Dean 大型采访大概半个小时左右而且他自己也评价了一下 JMILI 还有他们的 Google Vision 是什么要不你们谁来帮我分享一下 Jeff Dean 还记得吗 J 来
我要回想一下因为 Jumpdive 的分享在网上的评论里面有看到过我还挺感兴趣他之前分享了一些他分享他当时在 Google Brain 做的 disbelief
你们还记得吗记得记得对对对然后因为那个时候就是说我记得好像后来就是这篇文章后来又诞生了就是那个 Cat 不知道就是大家还有没有这个印象就 Google Print 不是当时做了一个 Cat Project 嘛就是 Cat 对然后跟这个文档
就是 Andrew Ng 一起当时他说那个 Andrew Ng 也是加入了这个加入到了这个 Google Green 然后他跟那个 Jeff Dean 还有那个团队一起合作然后做了 Displave
然后 disbelief 这个名字起的还挺 succursive 因为是 distributed 可能 belief networks 或者 whatever 但是他就把它弄成 disbelief 因为 disbelief 其实是不相信的意思但是其实肯定很多人他也是确实不相信这个路径因为那个时候他们可能想做一个 unsupervised learning 以前都是 supervised2014 年
2012 年 2012 年因为已经是 AlexNet 所以肯定是在 2012 年之前的我具体忘了他们是用什么模型可能是某种 Version of the Autoencoders 但是也是很大的一个模型好像也有 1 billion Providers 我记得他当时在这个分享会的时候
另外那个 Turing 的那个 CTO 不就说嘛他说你当时是不是也已经有想到这个 scaling 了对对吧就是说因为
记得 Illya 也是 2014 年 2013 年 2012 年 2013 年 2014 年这几年想到的其实很多时候都是殊途同归嘛很多 Bright Minds 可能就是在相近的时候可能想到了差不多的 ideas 但是 Jeff Dean 当时就他们整个团队包括跟安德鲁因一起的然后他们也 create 了一个这样的
disbelief network 然后是一个 autoencoder variation 然后很多的 parameters 也是 1 billion 的 parameters 然后我记得他当时说是 16000 个 course 好像在 1000 个具体的数字不是记得特别清楚啊然后好像是 16000 个对是吧 16000 个这个 course 然后在 1000 个这个 course 上面 run 的对然后他们确实好像是就是 observe 到了这个 scaling law 对就是因为他们好像还大概是嗯
就是叫什么就 record 了就是大概比如说我多少这个层数的时候或者多少数据的时候它的这个性能的提高是怎么样比如说这个 error rate 的下降是怎么样的然后它就在从中里面它就也是有了这个这个 scamming law 的这个雏形的这个 idea 对就我觉得因为我之前其实不知道这个事对它讲的我们在讲的挺深刻对就还挺有意思的确实真的是疏突痛
因为 Illya 也是在 2013 年 2014 年就是在那个时候对对然后他们也是 Google 也是在这个时候但是那个时候 Illya 是在 Google 吧 Illya 他应该是 2015 年我其实具体几几年我不太 Illya 当时他 Sequence to Sequence 那篇文章其实也是在那个国际 2014 年的时候对吧他可能是 2015 年的时候应该是 2015 年的时候去到这个 OpenAI 的 OpenAI 我记得啊
2015 年的那个 New York summit 成立的开这个会的时候对对对对对我相信其实他们可能在之前做研究的时候很多人都也会想到这个 Scanning Law 的事情但是其实有很多的 scientist 都也是不 believe in 的对然后后来我觉得就是那个
伊利亚也是因为就是到了这个 OI 之后然后呢他们自己在做一些模型然后 at the same time 这个 GPT 就出来了嘛 GPT 出来是 2017 不是 GPT 我是错了 Transformer 出来的时候对吧然后他那个时候就觉得这个 Transformer 可以用过来而且 Transformer 本身也是非常 scalable 的
然后他就觉得我们可以拿了 GPU 然后就大规模的开始做这个 Pretraining 了我觉得这个
也要叫巧合也注定大家同时不同的人在同一时期注意到了这个原来通过 scale 我就能够让德伦变得更聪明是吧变得更厉害而且正好这个伊利亚他在宣布 SSI 前后吧他好像推荐过一篇论文叫做《活浪图假说》吧
那个论文其实就写了结论就是你不管用什么样的方法不管用什么样的东西你只要数据量足够了最终这些模型的智能都殊途同归了就是说聪明的人都是一样的傻的人都各式各样傻的人
对就是小模型他撒了个虽然但是大模型里面只要这个模型的可不可以就足够好对对他可能就就是汇聚到就是一个这个对所以他解题方法最后汇聚到一个点上去了对我最终而且他还差有两个他有天生的简洁性嗯嗯他就用了自然就自然选择总是选最简单的一样他就选择了一个最简单的方法嗯解决这个问题但是有时候人类不会在解决问题
但是实际网络也训练出来他就会这样解决问题然后还有一个我记得在 OpenAI 有个研究员是在去年的时候发了一篇博客他写的博客写的很好玩他写的现在这些模型公司叫 DeepMind 或者叫做 Gemini 或者叫做 Cloud 或者叫 OpenAI CPT 其实你们都不能叫算法的不行你们都叫不同的数据集对
你们不管有什么算法加倒立计算之后训练完之后其实都差不了多少差别的就是数据集就是在数据集上的差异体现数模型能力所以这个数据有多重要对所以当我们现在这个数据集就是濒临到已经快要被 exhaust 的时候对怎么样想办法去合成这个数据而且有些数据可能还比较 narrow 的我们怎么样看看是不可以再证明出一些 out of distribution 的数据使得它更加丰富化
才能够使它最后的结果更加泛滑但是其实一直生成数据有意义吗其实我对这个问题是挺什么的因为其实生成的数据也是 based on 以前的数据其实相当于它这个多样性还有包括这个失真性其实也是一个问题就是说生成的数据它只是把数据量变大但它这个
意义有多大其实我其实我是本身我自己是抱有这个论文里面有讲那篇论文博老师讲说里面就是他会回归到一个君子上去嗯
它没有突破所以我觉得就不能完全从现有的数据去实现数据其实要突破它现有的 distribution 因为不然的话你其实 learn 不到一些新的 features 也好新的 distribution 也好所以现在其实 Nurbs 里面也会我记得有一些这个叫什么 tutorials 也会 workshop 也会讲就是怎么样可以突破这个限制
然后使得这个生成的这个形态的数据对对对质量更高嘛对吧但比如说所谓就是 out of 现在的 distribution 那就是跟现在的大部分数据不一样那怎么知道这个不一样的数据是怎么去 evaluate 它是一个有意义的数据还是是一个 hallucination 是一个不靠谱的数据所以这个其实我觉得也是挺大的一个问题
对 就是怎么样解决这些都是目前现有的就是大家正在研究的问题对 还有一块就是刚才我们讲到了回顾一下我们讲到好多了一下子讲到刚才我们其实都忘记讲这个 Japting 后面这个 GemNav 因为我刚才没关系我先总结一下我先给大家总结一下因为这个 40 多分钟先总结一下因为我们最开始就从我们讨论这个 Lurus 的这个会开始对 大家
把这个会议的历史介绍了一下然后介绍了第一个神秘嘉宾最重要的神秘嘉宾以利亚出现了然后以利亚就是抛出来一个概念就是这个
Pretend End 这边撞墙了但实际上还没有他也给出了很多方法然后实际上就提到了数据的重要性然后我们顺着这个就讲到了李飞飞讨论除了语言模型之外我们是不是还有其他的方式来提升智能那就是空间空间智能的意义我们也聊了很多他也是着重讲了这个数据对就是数据其实我们就回到数据上来我们刚刚从李飞飞这边又跳到了这个
Jack Dean 过去我们通过同一期发现了这个 Sketch-in-a-Law 是有效的就是在那个时候不同的产业都发现了发现了这个规律了然后呢正好我在这个地方我提到了这个数据的数据也提到那篇论文吧和论文和一个 OpenAI 研究员的一篇 blog 其实大家唯一的区别也是数据的区别
没有什么区别因为你的算法都会趋同最后你的这个只要算力足够大你的算法你的算法对这个模型的影响其实不大了那么回到最后认为里面有写写得也很明确的我们现在擦物理世界的数
对我们全物理那就回到了整个回到这前面去为什么要做空间智能为什么要去做这个所以你看李维培教授当然提到的有各种各样在以上 slides 上写着对各种各样的他就是收集数据的这些他有五个项目
对这些都是在收集这些不同的类别的数据不同类别的一些数据有些可能是就是家用是吧就是家居的一些家居的话它涉及到就是对对对有 behavior 也有材质然后手部反正都手部的那个可能是 dexcap 对对反正就是围绕着一系列的对不同的这个还有一些 motion
motion curve 的一些数据对对对吧但可能大家会觉得说我们其实有很多数据啊我们说有很多图片吗有很多 video 为什么这些不能用是吧要不然这可以展开一下为什么就这不也是数据吗为什么不能用为什么要专门去采集是吧对
对我们的这个 v6 数据就是说我觉得这个 v6 数据而且是 2D 的数据就是说很多时候你 2D 的数据需要去直接 infer 这个 3D 的结构什么的其实不那么容易
包括其实像 Sora 还有这些所有的这个视频生成的这些平台真的出来有很多我记得当时 Jim Fan 说好像就是一个对吧就是一个这个叫什么图片深深隐情还是什么物理世界这个 simulator 对但是它其实究竟是怎么做的我们也不知道不知道但他们现在在生成就是这个李飞飞教授在做这个
搜集数据的数据包括去用这个 SIM2REAL 这些平台去做这些模拟仿真的时候那些数据很多其实就是从 Unitygenerate 出来的包括这个 Isaac 这个这个这个平台 NVIDIA 的这个 Isaac 平台 generate 出来的对但是你这个 generate 出来这些数据的时候其实
用 Unity 和 Unreal Engine 去生成这个数据的时候它其实已经有隐含物理的特性在后面了就是由 Physics Law 来生成这些数据的所以这些数据的生成它本身其实是有
就是有内部的代表在那边的已经有我们整个世界的代表在里面的但是我们实际上的这个视频数据包括画面包括这个 YouTube 上的这个 2D 它是没有这个 3D 的隐含的在里面要自己去判断的这个是我觉得不一样的所以现在
我们之前也不是碰到了一些就是有一些这个 scientist 他们也就讲到他们现在想要自己搭建一些这个室内的棚子然后放了很多的就是 AVN 的这种他们用这个 AVN 的 intentions 对放了很多这个 smart sensors 然后这些 smart sensors 呢有些是可能通过这个震荡头
来 capture 就是你个个有可能是这个关节或者手对一些这个 movement 有些可能就是直接戴一个手套对吧这个手套有些是 optical sensor 有些是这个 magnetical sensor 对然后来 capture 这个那这些数据呢就是比较 native 的这些 3D 的一些数据然后
然后用它来生成的这个场景其实就是我感觉就是有蕴含着更多 3D 的 representation 和这个 physical law 在里边这个非常好对那个正好顺着这个数据其实我现在我们说最后一个话题 JeminaJemina 发布了 2.02.0 我觉得是我感受了一下我觉得它是一个把多模态做得非常好的
一个模型就是刚才说的这个数据 3D 数据或者什么数据其实它它现在能够原生的听语音输入原生的这个视频和图片输入然后还能够做原生的声音输出和图像输出它不是和以前那种我图像模型要有专门的这个 diffusion model 然后另外一个它是合一了它全部都 training 进去了或者说模态合在一块了对它这个非常强大而且现在唯一的一款模型是这样的这没有了
所以说这个意义你觉得对而且我今天好像还看到就是谷歌好像有一个平台叫 Android XR 然后呢他跟这个三神一起有合作打造了一款也是一款眼镜吧我不知道他里面应该用的也是 Gemini 后面所有的模型他用了那个叫做 VR 的一个系统
对对对但是这个系统后面应该就是对也是有包括这个对所以我是觉得就是谷歌好像就是在全方位的在发就是在发力对然后包括就是有个 Astra 是吧
一个是个人助手还有一个是 computer user 就有点跟这个 clubcomputer user 比较类似的但是他可能 focus on 在这个 web 的 navigation 上面的另外一个可能是 focus on 就是 desktop 和这个 web 就是可能更加 scope 可能相对来说更加大一些对但是我觉得反正就是谷歌就是感觉就是在就是个
各个产品或者各项都是在这两天股票涨得很好因为量子芯片又突破了它把比特币又变多了然后 ERA 的 rate 也是降低了所以说这两天突破挺大的而且它的模型我觉得突破也挺大的其实它在一定程度上它已经超过了 OpenAI 的水平了在某些地方不论是所有的我觉得谷歌模型不好的地方就是数据几彩都不好
他们太官僚的问题我听到一些故事太官僚太官僚导致数据集采购的时候被人骗了
对它不像小公司嘛就每一个东西进来之后可能会比较注意比如说上次出现那个是吧把华盛顿化成黑人是吧还有各种这比较早期的时候比较早期的事情最后他们都救火去了对对对所以这个我觉得 Google 但是它还是有最好的这个技术积累绝对的这个 talent 绝对是顶尖的 talent 是顶尖的而且还有
还关键我们在这次活动上面还碰到了这个 Simon Alasdair 的文章在去年的时候叫做 GPU rich 然后写了 Google
他算过之后市场上 GPU 最多的就是他了他自己还能造 GPU 他把 GPU 转化成 GPU 而且他 GPU 便宜对量产而且他可以自己用非常 cost 发展所以从那个时候我就
但股票还很便宜嘛作为投资来说我觉得当时我就压住固固嘛我觉得固固是一家挺好的公司就是大公司病这个没办法对这个是一个问题但是我觉得他的这个研发实力和人才储备和整个这个技术的这个
它的规模效应还有一个它有用户规模效应对它有它随时可以把用户我觉得这个是世界上三家公司用户规模效应最好就是 Google 然后 Meta 然后 Apple 和 TeslaTesla 它是车它的用户没有那些普通用户那么多
Tesla 可以再过五年它有 Twitter,它有 XTwitter 跟它也不在一个数量级上但是最厉害的还是三家但是 AI 有这些 Twitter 的数据其实也是非常 advantages 的对,我个人来看这个时代在做 AI 做模型因为它太依赖数据了
而且太依赖于这个公司对于普通用户的触达的这个能力了因为一个是数据会让你模型变得更好第二个是我通过用户的投放能力我让更多人用是对吧这个这两个合起来所以说对于小公司来说简直是灾难就是灾难所以说在这个时代可能只有大公司和小公司因为小公司可能长不成
中间规模的公司但是也还是挺佩服那些非常有情怀的小公司我觉得还有一些中型公司可能做 agent 的公司做的好的可能比如说什么 Dayton CreekSource 这种可能它会成为中型公司就他们也是直接触打客户但是就像他可能不掌握这个未来的电力大摩西所以
他们也不掌握模型了对他要源源不断的去买电但是因为他有这些独特的数据所以他再加上去买完这个电他也是能够成为一个中模型但他不是一个电力公司对这个是我自己老子面见的一个模型怎么看这些公司而且 AI 时代的这个公司的变化对就是说那我觉得并不是小公司不好小公司挺好的如果说 AI 能够让一个团队的人效提高五倍那我就会把人员减少五倍
那我同样赚同样的利润比如说 agent 多了之后那我员工就少了利润自然就高了对这个是很合理的一个所以说你看这个这叫做金销定最后其实江峰定也说了是见面来要做 agent 是吧然后要做多么太做的最好然后同时这个 2.0 里面还有一个代码 coding 能力是他们最重要的那么接下来包括对包括营业在他的这个
这个很牛逼的这个一页 PPT 上面写的第一个就是 agentic 是吧对 agentic flow 我记得这个 Ilya 当时也有提到就说现在的这些 agentic flow 或者这个 agent 其实能力可能还是有限的太弱了对对对真正以后就是会有非常强大的这个 agent 出现那时候才是可能是一个质的肺源对就是非常 streamlines 的而且他说我记得他好像提到
跟 Co-pilot 还有什么一般的 Tribal 有些区别就是像这些 Co-pilot 目前的这些一些 assistant 的话可能其实跟人的交互还是蛮频繁的但是他说以后如果真正的 agent 其实是有非常强大的自主性和引导能力的所以他可能就更加的自动化而且更加的有自主性然后能够帮你识别出你可能因为 based on whatever your history 还是什么的
可以帮你就是更加有效的去完成很多的任务而且有更强的理解力跟这个环境的互动的能力而且说那样应该注意到了这一次参会的公司里面做 A 型是最多的对对论文课里没注意论文不会写这么具体写这么应用但是公司里面是最多的这一次而且应该可能未来会更多那么这个里面就涉及到了其实我觉得
如果说对于效率提高来说 Azure Link 是一个必经之路或者我们就往这个方向来走那么其实最后一个话题就是就是 Jeff Dean 他好像有人问的这个话题或者他最后一个话题讨论的就是这个东西会对首先会对这个
programmercoding 的人员的替代对然后再对普通的这个工作的替代它是一步步来的大家怎么看这个话题对最后收尾一下对对对职业的替代的问题对其实我觉得其实李天天当时也有说过一个他说是 replacing 的
还是然后就把那个 replace 给发表了还是 empower 它现在就是 ultimate 对是一个意思的是一个意思的对所以其实很多的时候它是帮助我们去 take care of 一些我们平时比如说非常 routine 的工作或者就是不需要我们进行很深度思考的工作它帮我们去做好了对当然了它其实甚至也可以做一些相当有深度的包括像 coding 对不对对所以我觉得它可以
把我们很多的这个时间给 free out 出来就让我们可以跟 Focus on 在做深度的思考或者更加有 visionary 更加 creative 更加 innovative 的这个工作上面去对不知道你们怎么想我觉得对就
我觉得可能大家确实要找一些自己更感兴趣的东西去做可能就是在未来就是感觉好像你的眼神就要透露一种悲观是吧没有没有我觉得不是悲观可能其实未来的社会是一个物资非常富足的一个世界因为可能无论从这个呃
医疗护理你看现在医院里面就是说可能觉得还护士不够呀或者担心没有人来陪你聊天啊你就可能什么脑子就怎么了但其实我觉得未来其实可能或者说你有甚至说你可能就是你心里有很多事情但你不方便跟无论是 co-workers 跟你朋友讲但是心理医生都很贵我觉得可能就是未来世界是这些可能都不再是一个问题
就是只要有算力啊这都不是问题对所以呢我觉得可能就是人类会有更多的这个自由的时间去做怎么去做自己喜欢的事情但是我觉得这个社会的整个它其实会 overall 是有更多的这个财富的而且有更多的这个闲暇时间的
就是就取决于怎么去分配了然后那么剩下这些闲暇时间跟这些这些物资是吧衣服不会缺这个对对对因为你工厂可以所以说到我们整体的人再贫困的人他的 base 9 提高了对对基线提高了我们就 Bill Gates 自己
自己说的吧他说你们未来是什么呀就是你们每个人都过上像我这样子的生活 Bill Gates 自己就说过了所以说可能我觉得就是大家要找一个自己真正感性的事情然后一直一直做下去可能就是因为你做得多然后你想多然后你可能
还是会在这个领域就是发光发热就但是这个不是说奔着说哎我能获得更多的什么财富啊或什么之类的可能真的是你的这个兴趣然后追人然后甚至可能会对这种问题有一些突破可能真的是要靠兴趣或者这个去对就是就是我们就昨天晚上还在讲就是对就在可能很多人都会选择躺平哦
因为因为当这个物资极大丰富的时候对因为可能你也不需要去陪你爸妈了给他什么护理因为可能其实可以护理你这个衣服什么的对食物也充足我的观念就是可能最后一个话题我们要总结一下我的观念我觉得人得更像人嗯
是这个人要提供人和人之间的这个连接价值因为这个机器代替不了对就打个比方说 Salesforce 这个公司都有 agent 实现的那他还是得有销售还是有这种公司在那么销售就负责把人搞定然后剩下全部 agent 做就好了对
所以人和人的连接价值还是非常重要的而且在数字化时代的人的连接你可以用很多方式做 physical 的做也可以 digital 的方式做在线上做然后在线下做都行而且我相信人肯定不是最 logical 的人本身 build 的这个机制就不是 logical 的所以说如果我们很 logical 那我们今天
很多东西就是很 economic 的行为是吧就是但我们其实很很早经济学就说我们人不是老师所以我觉得未来也是需要人与人之间链接可能就回归到这个是最有价值的一个东西我不知道就这怎么看对所以说没有没有我我我我完全同意你们所说的对啊对就是人要实现自己的价值嗯包括实现自己的价值嗯
在一切很多的这个基本的这个生活体验都对对对都已经很 OK 的情况下面啊就像每个人都发了一个什么 UVI 什么的但是但是人要但是我觉得人追求自己的价值一个是追求他自己想要实现的一些东西对的意义还有一个就是人的温情就是跟大家的这个跟大家和跟这个世界的一些深度的连接所以所以我才觉得就是在将来的世界嗯
不是说大家一定要都去学这个理科啊或者说就学 STEM 啊什么的其实更多的时候比如说去探索自然呀探索这个 art 呀探索太空就是只要你想探索这个太空有无缘无尽的问题就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是去就是是就是是就是是就是是就是
对吧会使得整个就自己的这个整个人的一生就会获得更加的诚实因为我有时候说有的人说我们不是每个人都想探索太空那就就是做好就是人与人之间的链接或者就做一点自己感兴趣的事情反正怎么样其实我觉得都挺好的就爱画画就画画
就是爱照顾人就照顾人希望这样的时代带小孩就带小孩用计划总结一下最后我总结一下这个工作的问题就是说首先人类总有解决不完的问题所以说我们永远都会有工作什么工作而已是吧什么工作而已好吧那我们今天就先聊到这感谢两位参加给大家总结这一次的活动我觉得挺有意义的谢谢大家谢谢你