We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode E145 | 对话Meta田渊栋:被Transformer改变的世界与人类AGI的野心

E145 | 对话Meta田渊栋:被Transformer改变的世界与人类AGI的野心

2024/3/28
logo of podcast 硅谷101

硅谷101

AI Deep Dive AI Chapters Transcript
People
泓君
田渊栋
Topics
田渊栋:Transformer的成功可能源于谷歌内部对算力成本的考量,以及其强大的并行计算能力。然而,Transformer也存在需要大量算力、速度较慢、延迟高等缺点。在神经网络的研究中,理解神经网络的工作原理至关重要,这有助于改进算法并提升效率。GaLore论文通过梯度低秩投影的算法改进,实现了在消费级GPU上进行大型语言模型的训练,降低了训练成本。MobileLLM论文则致力于优化小型语言模型,使其能够在移动设备上运行。关于AGI的实现,田渊栋认为单纯依靠扩大模型规模(Scaling Law)可能存在瓶颈,需要在算法上取得突破。人类学习的效率远高于现有模型,这暗示着可能存在更有效的学习算法。 泓君:探讨了Transformer、端侧小模型以及AGI的可能性。对田渊栋博士在神经网络、Transformer以及端侧小模型研究方面的成果进行了介绍,并就AGI的实现路径、Scaling Law的局限性、以及合成数据在训练大模型中的作用等问题与田渊栋博士进行了深入探讨。

Deep Dive

Chapters
罗永浩直播卖云产品,讨论中国云计算的现状和未来发展趋势。
  • 中国云计算占比仅为28%,远低于美国和欧洲。
  • 云计算模式占比过低导致算力利用效率不高。
  • 罗永浩希望通过直播推动企业级IT认知运动,推广云计算概念。

Shownotes Transcript

2017年,谷歌一篇划时代的论文《Attention is all you need》掀开这一轮人工智能的开幕式,这篇论文就是大名鼎鼎的Transformer。7年过去了,我们看到在这篇论文的基础上加入算力、算法开启了AI时代的第三次科技浪潮。

今天我们的嘉宾是来自Meta Fair的研究员田渊栋博士,他最近也发表了两片论文都在都与端侧小模型相关,一片论文是《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases》中开始卷 10 亿以下参数小模型,主打在移动设备上运行 LLM;另一片论文是《GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection》,由于离应用更近在解决更实际的问题,他的论文被业界很多人问到,而过去五年,他所有的研究都在回答一个问题:神经网络是如何工作的?

今天我们就一起来解读田渊栋最近的两篇论文,也一起聊聊最近大火的Sora、Transformer与AGI。

【老罗直播预告】 北京时间3月31号晚上七点,罗永浩会在直播间卖云产品。之前老罗也带火过很多概念,这次我们来看一看,老罗能不能引领一场企业级IT认知的运动,把云计算这个概念推向大众。他这次的选品涵盖阿里云众多的热门产品,价格也给出了史无前例的优惠,大家感兴趣去淘宝app搜索「罗永浩」,让我们一起围观连续创业者罗永浩卖云产品,以及他如何解决创业者的核心痛点的,直播链接:https://m.tb.cn/h.5BYaoxh)

【主播】 泓君,硅谷101创始人,播客主理人 【嘉宾】 田渊栋,Meta人工智能研究院(FAIR)研究员及高级经理

田渊栋博士,Meta AI人工智能研究院(FAIR)研究员及高级经理,2018年围棋开源项目(ELF OpenGo)研究及工程负责人和第一作者。曾获2021年国际机器学习大会(ICML)杰出论文奖提名(Outstanding Paper Honorable Mentions)及2013年国际计算机视觉大会(ICCV)马尔奖提名(Marr Prize Honorable Mentions)。研究方向为深度强化学习,表示学习和优化,历任机器学习国际会议ICML,NeurIPS,AAAI, AIStats领域主席。2013-2014年在Google无人驾驶团队任软件工程师。

【你将听到】 00:05 3月31号晚七点罗永浩直播间卖云 01:34 正片 【“斜杠”AI研究专家】 02:55 从自动驾驶、围棋开源项目到神经网络研究 05:52 写科幻小说:不靠谱的想法放进小说,靠谱的想法用来做科研 07:24 理解神经网络如何工作or 研究大模型,2019年为何拒绝Ilya Sutskever加入OpenAI的邀请 08:44 最新两篇论文的艰难诞生:曾被两次拒稿,三四年后才看到结果 【GaLore和MobileLLM】 11:04 GaLore的主要特点:实现在英伟达RTX 4090上进行模型的从头训练 12:56 算法上改进让4090重获新生,省内存的同时获得高性能 16:56 MobileLLM:降低神经网络参数仍然保持好的效果 【实现AGI的路径】 17:40 Scaling Law带来的增长会越来越小,我们并没有完全理解为什么Transfomer的效果更好 19:17 完全无人驾驶难点:人工干预的频率越低,有效训练数据就越少 23:41 Transformer很难做游戏式的推理:通过理解神经网络的工作原理来改进现有算法 【深度理解Transformer】 24:52 谷歌内部发现算力价格比通信便宜,所以想到要设计一个模型让算力获得更大优势 26:21 Transfomer vs CNN:没有预设立场,并行效果更好 26:44 Transformer的缺点:需要大量算力、速度较慢、延迟高 28:01 强化学习的根本性问题:Exploration(探索)和Exploitation(开采) 【Sora、合成数据与Anthropic】 30:03 Sora的最让人惊艳的地方是所生成的内容一致性非常好,在技术上有根本的创新 33:07 世界模型并不“高大上”,对未来有看法和预测都可以成为称为“世界模型” 40:46 用合成数据训练大模型是趋势,其与真实数据之间的边界会越来越模糊 43:00 合成数据相当于用算力来换数据,但缺乏人类参与的数据会导致学习瓶颈 44:30 Anthropic的长文理解和分析能力远强过GPT-4,但推理能力难以分高下 46:30 大模型缺乏竞争的话,也会出现“偷懒”的问题 48:06 一家独大 or 威慑平衡,Meta开源打破的行业格局 48:18 大模型侵蚀Google的核心业务,训练和推理很难发论文 50:20 从玄幻小说到科幻小说:记录人与人之间的关系和思维的火花

【相关信息拓展】 ELF OpenGo:由Facebook AI Research团队(FAIR)在2018年开源发布的AI围棋项目。其特点是不使用人类棋谱与累积的围棋知识,仅实做围棋规则,使用单一人工神经网络从自我对弈中学习。《ELF OpenGo: An Analysis and Open Reimplementation of AlphaZero》) MobileLLM论文:《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases》) GaLore论文:《GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection》) 田渊栋之前自动驾驶的技术分析帖子) 玄幻&科幻作品集)

【后期】 AMEI 【BGM】 Interruption - Craft Case Stillness Within - Roots and Recognition

【在这里找到我们】 公众号:硅谷101 收听渠道:苹果|小宇宙|喜马拉雅|蜻蜓FM|网易云音乐|QQ音乐|荔枝播客 海外用户:Apple Podcast|Spotify|TuneIn|Youtube|Amazon Music 联系我们:[email protected])