We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode EP.62 《生成》解读 1--生成式AI奇点时刻:人工智能发展经历了哪些关键阶段 核心技术突破是什么?

EP.62 《生成》解读 1--生成式AI奇点时刻:人工智能发展经历了哪些关键阶段 核心技术突破是什么?

2025/6/22
logo of podcast MSAI 营销科学∞艺术

MSAI 营销科学∞艺术

AI Deep Dive AI Chapters Transcript
People
谭北平
Topics
谭北平: 我认为大语言模型和转换器架构是推动人工智能实现规模化应用的关键。这本书旨在帮助大家理解生成式AI背后的趋势和逻辑,找到未来的工作价值。让机器像人一样工作是人类的梦想,要实现这一点,需要了解AI技术的发展历程。人工智能经历了多次爆发和寒冬,每一次寒冬都在为下一次爆发积蓄力量。1956年达特茅斯会议标志着AI概念的诞生,开启了通过符号系统模拟人类智能的探索。早期的基于规则的系统虽然在特定领域展现了能力,但存在局限性,因为这种规则并非人脑的学习过程。20世纪70年代,AI研究进入寒冬,因为基于规则的方法无法有效处理大量知识和应对不确定性。1975年开始,机器学习和大数据的技术推动AI进入新的高峰期。20世纪90年代中期,随着机器学习和大数据技术的发展,AI研究再次走向高峰,研究者们开始探索通过数据驱动的方法来实现知识和建构模型。2012年开始,深度学习技术推动了AI的大爆发。2016年,AlphaGo击败李世石,证明了机器在特定任务领域超越人类的可能性。2017年,谷歌提出的Transformer架构引入了注意力机制,能够有效处理长文本。基于Transformer的GPT放弃了基于规则的建构方式,通过自动学习,无需进行标记。GPT的成功在于专注于语言本身,并利用大量数字化语料进行学习。GPT-3的神经元数量超过人类大脑的两倍,可能带来一种新的智力。生成对抗网络的出现为图像生成提供了一种全新的思路,通过生成器和判别器的对抗训练,不断提升图像生成质量。对抗训练就像学生和老师之间的互动,通过不断地评判对错来提升能力。

Deep Dive

Shownotes Transcript

技术是第一生产力而营销是一个为企业创造顾客为顾客创造价值的系统大语言模型和转换器的架构的发展是今天如今人工智能实现规模化应用的关键推动力 MCI 营销科学艺术让科学与艺术的力量推动商业可持续增长谭总好大家好我是谭北平

《深层》这本书的作者那我们今天呢开始来跟大家讲一讲《深层》这本书因为整体来说啊《深层》会成为我们整个世界运作的一个基本的逻辑和一个底层的技术在整个全书呢我们分为四篇叫做《深层的趋势》《深层的力量》《深层的运用》和《深层的部署》我们先来到第一篇《深层的趋势》

这一篇里面我们会强调技术推进营销演变大家都知道技术是第一生产力而营销是一个为企业创造顾客为顾客创造价值的系统这样本篇一共会分为六章包括人工智能的发展历史基点时刻到来生存式人工智能的基本原理

深圳市人工智能正在接近和超越人的能力我们也会去回顾营销随着时代的演变在过程中技术与营销的深度融合以及营销的新场景与新特征在本篇你将学到最新的人工智能技术发展及营销的演变我觉得这个是这一篇要带给大家的一些基础

因为这本书整体不是一个教你如何用某一个工具而是要大家看到生成式人工技术发展背后它的趋势它的底层逻辑我们只有很好的理解了技术的发展的趋势和我们过去在营销工作之中的基础逻辑这两者结合说不定就能发现你未来的工作所在你未来的价值所在

我们先看到第一章叫新风口人类智能的起点时刻其实让机器像人类一样工作一直是人的梦想像我小时候也有很多这样的梦想就是未来机器可以帮我们做饭炒菜帮我们工作我们甚至可以不用工作了但人类真的为这一天的到来做好准备了吗

要让机器像人类一样工作,首先需要让机器像人类一样思考,要实现这一点,我们必须先要了解自己。所以我们来到先要去了解人工智能技术本身的起落,它不是一帆风迅的。人类的发展的历程经历了从原始人到智人,再到如今的现代人的四个阶段。

大脑的发展是人类具有智力的关键它就有独特的生理结构包括大脑、脑干、小脑等组成部分这些组成部分紧密地分工协作支撑着人类复杂的思想和活动大脑中负责处理和传输信息的核心是神经元据统计

大多数人脑中大约有超过 800 亿个神经元因为我过去是学生物学的学心理学的我们过去很多的工作都是研究人的大脑那神经元不仅仅是人脑运作的基石这也是人工智能诞生的基石 1943 年心理学家沃伦麦卡诺德和数学家沃尔特皮茨在他们的论文中首先

提出了人工神经元的模型因此该模型也被称为麦克洛克皮茨神经元模型它奠定了神经网络和现代人工智能研究的基本框架

虽然这两位科学家提出的人工神经元模拟无法解决非线性问题也不具备学习权重和预执机制但这一种开创性的研究为后面神经网络研究提供了理论基础也为使用计算机模拟人脑神经元活动提供的研究方向成为了人工智能和机器学习领域的一个重要里程碑虽然人类的大脑的进化耗费了数百万年的时间

但人类从认识自己的大脑到制造出一个像人一样思考的机器却仅仅用了不到一百年的时间书中有一张图展示了 1960 年到 2023 年人工智能的发展脉络我们可以看到人工智能的发展经历了多次的爆发和寒冬就是波峰和波谷每一次寒冬都是当时的技术无法跨越创新鸿沟的结果

人工智能在寒冬的时候只能停留在实验室或者少量的应用场景中而无法做到痊愈的普及不过每一次寒冬都为后一次爆发蓄积的力量每一轮新范式的诞生都为新一轮的产业爆发提供了助力这点我也给大家来解释一下第一波就基于规则的人工智能

人工智能的概念正式诞生,可以追溯到 1956 年的达特茅斯会议这次会议上,人工智能 这个概念首次被提出人们梦想通过符号系统和逻辑推理来模拟人类智能达特茅斯会议的开展,开启了人工智能研究的第一个黄金时期

20 世纪 50 年代的后期逻辑理论学家程序展示了这一时刻的雄心和创新这是逻辑理论家这本身是一个程序是 20 世纪 50 年代的程序它是由艾伦和赫伯特开发和设计的被专门用于证明数学定理它展示了符号处理在模拟人类思维过程中的潜力

1966 年,另一位学者约瑟夫开发了 ELIZA 这是一款能够基于简单规则与人类对话的程序,成为自然语言处理领域的先驱

在这一时期人工智能的研究的高峰的出现主要得益于计算理论和初代计算机的兴起研究者对于人工智能和计算理论的深入理解尤其是艾伦图林提出的图定测试我相信后面还会提到他为人工智能奠定的理论基础

各类基于规则的系统展示了人工智能在特定领域的强大能力因此吸引了大量的研究资金和关注当然这里面叫做基于规则的意思就是说我们要为每件事情的前后用逻辑的方法写出判断的原因等等但是这种基于规则是人脑的学习过程吗明显不是当然

也是因为这个原因 20 世纪 70 年代的时候人工智能研究引来的第一次寒冬尽管早期成就绯源但现实中人工智能系统在遇到复杂和动态环境时就表现不佳了远没有达到早期宣传的效果那基于规则的方法无法有效的处理大量的知识并应对不确定性而且它需要有巨大的计算资源的需求

数据的获取的困难以及系统的脆弱性都暴露了这种技术上的局限大众的投资和兴趣也随之逐渐这是第一波第二波的时候是基于机器学习和大数据的人工智能与算力的限制经历了这种短暂的寒冬 1975 年开始人工智能又开始发展到一个新的高峰期这一次的推动力主要是机器学习和大数据的技术

在繁盛期 20 世纪 70 年代和 80 年代我相信很多读者可能还没有出生这一阶段的早期科学家们致力于将专家级的知识和技能编写成计算程序以解决特定领域的问题他们通过创造详细的知识库和规则系统专家系统能够在特定领域模仿人类专家的决策过程然而这一时期的人工智能系统也有其不足

开发和维护这些系统需要耗费大量的人力和时间而且他们在面对快速变化的环境时表现不佳此外专家系统仍然缺乏自我学习能力无法适应新的知识和变化因此进入到 20 世纪 80 年代末人工智能再次陷于低谷

然后我们会到达一种数据驱动的人工智能时代不过随着机器学习和大数据技术的发展计算能力和储存容量的提升到 20 世纪 90 年代中期开始人工智能的研究再次走向高峰研究者们开始探索通过数据驱动的方法来实现知识和建构模型这里面有个重要的技术叫知识向量机

倍页式网络以及神经网络的初步应用展示了人工智能在模式识别、数据挖掘等领域的优势这一时期的高峰的出现得益于计算机硬件的快速发展和大数据的兴起尤其是图形处理单元也就是我们经常说的 GPU 的引入

大大加快了这种复杂计算任务的处理速度这里面有包括 1997 年 IBM 的深蓝系统击败了国际象棋世界冠军加里反映了人工智能在复杂决策任务中的巨大潜力极大地提升了公众和研究界对于人工智能的兴趣和信心这里面还得提一下我们讲 1997 年 IBM 的这种系统

击败了国际象棋我们是不是还有在中国还有两种棋一种棋是象棋一种棋是围棋其实围棋这个问题是很难解决的这一时期的技术是无法解决围棋问题的问大家一个问题你觉得这一时期的规则有没有解决中国象棋的问题

实际上中国象棋的规则是相对有限的中国象棋在人工智能面前即使是这一阶段来说它都是很好被解决了也就是当时就出现了有很多人拿着

计算机拿着电脑上的这个象棋的软件和街边的下象棋的大爷来下大爷一般是下不过计算机的那个时期是早期计算机的象棋程序当然最近因为这种的多次生存之后啊

中国象棋里面用 AI 的角度来说他的胜负是确定性的胜负就是谁先下谁就是赢所以呢如果是两个 AI 下象棋啊只有一个结局谁先下第一步

第二步另一方的 AI 通过计算之后发现他只有输一条局面他就会马上认输所以其实 AI 已经把象棋这件事情完全的消解掉了当然人类其实还在玩这个有趣的私立游戏而已而

我们的这个围棋的解决其实是应用了完全不同的技术尽管机器学习在这一时期取得一定进展但实际运用中的问题仍然难以解决特别是数据标记的巨大工作量还有昂贵的算力资源再次限制了这一技术的广泛发展

此外统计学习方法上在某些任务上缺乏解释性难以提供透明和可信的决策依据这一连串的技术瓶颈在现实中的挑战导致了人工智能的投资和研究热度的助降

当然这个挑战今天的时代是不是仍然会有我们也要思考它的叫做统计学习方法在某些任务上缺乏解释性难以透明提供透明和可信的决策依据我们今天的 AI 是不是能提供了呢是不是解决了呢这是我们要去注意的

我们来到了第三波叫做深层次人工智能带来的人工智能的大爆发首先是深度学习的技术推动 2012 年开始啊所以说深度神经网络

DNN 的技术的起步以及大数据和高性能计算资源的普及人工智能终于进入了黄金期此后一些技术成就不从深度学习在资源源处理计算机视觉语音识别生成模型等领域取得了突破性的进展其中一个标志性的事件是 2016 年

DeepMind 的它的一个程序叫 AlphaGo 的人工智能程序击败了围棋世界冠军李适时我们相信很多人还有记忆啊他的 AlphaGo 就是也打败了中国的所有的棋手啊

在这过程之中展现了深度学习和强化学习结合的强大力量 AlphaGo 的胜利证明了机器在特定任务领域超越人类的可能性为或许基于统计方法和机器学习的人工智能系统开发提供的重要的启示这是下棋的问题下棋的三大重要的棋都已经被解决掉了解决的方法各自不一样

而大语言模型和转换器的架构这一时期大语言模型用英文的缩写叫 LLMs 的发展是今天如今人工智能实现规模化应用的关键推动力大语言模型的核心的方法并不是

我们今天熟悉的 OpenAI 提出来的它是 2017 年的时候的谷歌的阿什什等人提出的突破性的转化器这种架构用英文应该是 Transformer 这样一种架构它与以前的循环神经网络 RNN 是不同转换器过程之中引入了注意力机制能够有效的处理长文本并实现高效的

并行化这样是一个很重要的概念什么叫做注意力机制用心理学的角度来看我们的眼睛一直都在应用这种注意力机制你想想我们的眼前是永远呈现着无数的事情我手上可能拿了一本书前面有灯有电脑我们的注意力永远像一个手电筒一样我们的注意力只有那一个很小很小的一块是被

就被我们真正的深度加工的其他的对我们来说只是一个外部刺激这是人类大脑面对着纷繁复杂的外部刺激物进行处理的时候的一个机制这个机制也被很好的应用到了人工智能的这个领域里面去就叫做注意力机制它的核心逻辑就是我们需要只关注眼前的一个小范围的东西这是我们人类也是这样子

所以在转换器的这种架构上 2018 年

这个谷歌的德富林等人推出了基于 Transformer 的双向编码表示的模型而这一基于双向转换器架构的预训的模型通过深度学习方法对语言的深度理解迅速的成为了资源语言处理领域的新标准我们以前的资源语言的处理往往是通过规则的方式什么是主语、位语、宾语什么是谁和谁可以搭配谁和谁不能搭配这叫规则背词的

而利用生成式人工智能利用转化器这种方式这些规则就无需要进行标记它是自动去学习的所以这是一个非常非常重要的点那就到了我们今天大家都很熟悉的 GPTGPT 的最早出现是 2018 年是 GPT 首次亮相它就采用了这种单向转换器的架构专注于文本生成任务我觉得这一点也是一个非常有趣的要了解的发展

他放弃掉过去那些复杂的基于规则被使的这些的建构的问题因为一旦要用规则建构那你想想我们所有世界领域的知识无穷医学的化学的工业的那我只专注于语言

本身那语言的语料又是大量的被数字化了的我们可以通过互联网的搜索通过文章通过图书馆找到这些语言所以呢专注于一件事情而且这件事情是被很好的准备了的数字化了的这件事情我觉得这是 GBT 很成功的地方那前面的几个 AI 成功也是一样啊他专注于比如说 AlphaGo 专注于这个围棋因为围棋是有无限的可能性但是

但是它的规则是相对比较简单的它可以自我博弈自我去做所以减掉了我们非常复杂的规则录入标记等等工作所以 GPT 也不是一上来就非常成功的它是 2018 年才首次亮相那个是 1.0 随后 GPT-2GPT-3

相及问世他们分别在参数的规模和内容生产能力上取得了显著的提升到了 GPT-3 凭借它 1750 亿条参数和深度学习展现出强大的多任务学习能力

接起了生成式人工智能应用的热潮大家还记得前面讲过吗我们人类的大脑有多少个神经元人类的大脑一般是超过 800 亿个神经元 GPT-3 是超过两倍人类大脑的神经元这种情况下是不是就可能带来一种新的智力呢这是一个非常重要的一个逻辑这是我们今天看到的一个逻辑

好我们在里面继续先跟大家来讲一讲多模态大模型的快速发展在探索这种语言生成之外生成式人工智能还在视觉领域取得了重大的发展在视觉领域里面一个重要的技术叫做生成对抗网络的出现为图像生成提供了一种全新的思路 2014 年的时候古德费洛等人提出了生成对抗网络这一概念他

它开启了基于深度学习的生成器与判别器对抗训练的模式推高了高质量图像生成技术的进步

在这里面具体的模型有很多比如说深度卷积生成对抗网络基于风格的生成对抗网络的模型由英特尔公司的研究团队相继推出通过深度学习式的图像生成质量达到了一个新的高度这里面可以讲一讲什么叫对抗网络对抗网络的意思是一个点负责生成

另一个点负责判断那判断器变得更加重要判断器是先去判断这个图是不是这个图这个图是不是一个人是不是可以接受的人如果不是我们就把这个前面的生成反复的以这个判断器为标准来对抗就像两种来打架一样

其实呢另一句话可以认为是就像你在上学一样有学生跟老师老师的作用不仅仅是教你东西还很大一个作用是帮你做对抗样本不停地去评判你做对了还是做错了你会在人类在一个自学期的情况下可以在不停地做对和做错之间我们的做题的能力就会提升