AI is considered a general purpose technology because it can be applied to virtually any field of human endeavor. Unlike tools like toasters or phones, AI can learn and adapt, making it capable of transforming industries, economies, and societies on a global scale.
AI poses challenges such as job displacement, ethical dilemmas, and unintended consequences. It can disrupt industries, create new power dynamics, and raise questions about regulation, equity, and the balance between human oversight and machine autonomy.
AI has the potential to redefine global power dynamics by amplifying economic productivity and reshaping international relations. Nations that lead in AI development will likely dominate 21st-century geopolitics, while those that lag risk falling behind in wealth and influence.
'Super agency' refers to the empowerment of individuals and society through AI. When a critical mass of people use AI to enhance their capabilities, it creates a compounding effect that transforms industries, professions, and societal structures, leading to widespread benefits.
Iterative deployment involves releasing AI tools to the public early and refining them based on user feedback. This approach accelerates development, ensures alignment with human needs, and allows for continuous improvement, making AI more accessible, safe, and effective.
AI can mitigate risks by being developed with safeguards, ethical principles, and iterative deployment. By focusing on human well-being, equitable access, and minimizing harm, AI can amplify collective capabilities while addressing potential negative consequences.
Humanism centers AI development on theories of human well-being and individual agency. By prioritizing ethical considerations, compassion, and inclusivity, AI can be designed to enhance human capabilities and foster positive societal outcomes.
AI challenges traditional work structures by potentially automating jobs while creating new roles and industries. It shifts the focus from human labor to human-machine collaboration, requiring upskilling and adaptation to navigate the evolving economic landscape.
AI development has significant geopolitical implications, as nations that lead in AI will shape global power dynamics. Divergent approaches, such as China's focus on surveillance and the West's ethical debates, highlight the need for international collaboration and inclusive governance.
Speed in AI deployment ensures that societies can shape the technology during its formative stages and reap its benefits early. Delaying deployment risks falling behind in global competition and missing opportunities to address pressing challenges like healthcare and education.
欢迎收听伦敦政治经济学院的LSE活动播客。准备好聆听一些在社会科学领域最具影响力的国际人物的演讲吧。大家好,欢迎!我是拉里·克莱默,伦敦政治经济学院的校长兼副校长,我很荣幸欢迎大家参加今晚由LSE公共政策学院主办的这场特别的讲座。
在介绍我们的演讲嘉宾之前,让我快速地谈谈一些注意事项。首先,演讲结束后我们将有时间进行问答。线上和谢赫·扎耶德剧院里都有观众,我会尽量确保我们能回答来自两个观众群的问题。
在剧院里的各位,请举手,工作人员会拿着麦克风走到您身边。当您被点到时,请在提问之前报上您的姓名和单位,最好问一个简短的问题。
线上参加的各位也可以通过屏幕底部的问答功能提交您的问题。请同样告知您的姓名和单位。我们尤其希望听到学生和校友的声音。最后,对于社交媒体用户,今天活动的标签是#LSEevents。好的,我们今晚演讲的主题是人工智能,如今人工智能是每个人都在关注的事情,而且这是有充分理由的。
今年秋天早些时候,实际上就在这个剧院里,我做了一次演讲,列举了全球社会需要应对的五大主要挑战,并指出这些挑战对我们的未来至关重要,但也从根本上说是社会科学的问题。第五个挑战是新技术,尤其是人工智能的挑战,因为发明东西原来是最容易的部分。
新发明是好是坏,是否大规模部署,是否惠及应该惠及的人群,是否会产生重大的意外后果以及是否会解决这些后果,是否以经济有效的方式提供等等,这些都是社会科学、经济学、金融学、法学和政治学的问题,更不用说心理学和社会学了。
新技术不会自行部署。它们是由人类设计的,并考虑到人类的需求。它们被人类采用,人类会根据设计者常常无法预见或忽略的情况来调整它们。
它们受到由人类经营的公司和国家的监管,这些公司和国家根据其自身情况和角色所创造的激励措施行事。最终,它们被人类用于各种目的,并怀有各种各样的意图。在这个链条中的每一步都需要社会科学,如果我们想把它做好。
我们最好对人工智能这样做,因为没有做好会付出巨大的代价。人工智能不像烤面包机或电话。它是一种通用技术,可以应用于几乎任何人类努力的领域,并且可以像人一样学习和改变。
现在,这意味着什么很难预测,但有一点我们可以肯定地说,它将深刻而不可逆转地改变人类社会,这意味着我们现在需要做出选择。让AI按照市场塑造它的方式发展是一种选择。规范它是一种选择。不选择也是一种选择。我们现在做或不做任何事情都会影响AI融入我们生活的方式。因此,我们需要尽最大努力做出这些选择,但我们需要现在就做出这些选择。
像今晚这样的活动正是我想来LSE的原因,因为应对社会科学中的这些重大挑战,了解其成因,并帮助解决它们带来的难题是LSE的工作。这就是为什么今晚关于人工智能挑战和机遇的对话没有比这里更好的地方了。而且没有比我们今晚的嘉宾里德·霍夫曼更好的演讲者来帮助我们理解它了。
我将从传统的传记细节开始,因为我有义务这样做。里德出生在加利福尼亚州的奥克兰,1990年毕业于斯坦福大学,获得符号系统学士学位。这表明出生在斯坦福。这不是我们。出生在加利福尼亚州的斯坦福,里德于1990年毕业于斯坦福大学。
你去哪儿了?帕利?不,不,不。对不起。早期的学校,佛蒙特州。对不起。一点内部棒球。无论如何,毕业后,他凭借马歇尔奖学金前往牛津大学,于1993年获得哲学硕士学位。毕业后,他跳入了蓬勃发展的硅谷科技界,在苹果和富士通工作,然后在1997年创办了自己的第一家创业公司。
那家创业公司SocialNet,可能是对约会网站的第一次尝试。不幸的是,或者也许我应该说幸运的是,在1997年,世界和技术都还没有准备好迎接这种社交网络。因此,在2000年,里德加入了一家不同的创业公司,另一个古怪的想法,PayPal。
他已经是Confinity的董事会成员,Confinity是合并创建更著名的支付服务的两个实体之一。但他现在成为首席运营官,然后成为业务开发高级副总裁,我们今天可能称之为硅谷的ER创业公司。对于像里德、彼得·蒂尔和埃隆·马斯克以及许多其他人来说,这是第一次成功。2002年,他与SocialNet的两名前同事共同创立了LinkedIn,
看来,世界现在已经准备好迎接这种网络组织了,尽管LinkedIn不是约会网站。我想,从某种意义上说,它是。无论如何,其余的就是历史了。里德利用他在LinkedIn和PayPal出售所得的收入,成为硅谷最多产和最成功的投资天使和风险投资家。他帮助创办的公司包括Facebook、Airbnb、Flickr、Helium Energy、Aurora Innovation以及其他无数公司。
科技内幕人士将里德比作沃伦·巴菲特,称他为“硅谷的先知”,这是有充分理由的。但里德远不止是一位投资者,他也是最聪明的硅谷科技领导者。我说这话没有丝毫夸大。里德一直是关于加密货币、创业管理、人才发展以及最近人工智能等问题的思想领导者。
他撰写或合著了关于所有这些主题的书籍和文章,包括他与GPT-4合著的《即兴创作》,这本书实际上可以为每位读者撰写一个定制章节。
我在来LSE之前读了《即兴创作》,它帮助我不仅看到了人工智能的重要性,也看到了它对增强人类能力的意义,以及为什么我们需要拥抱它。因此,这本书的副标题是《通过人工智能放大我们的人性》。好的,这就是纸面上的内容,它令人印象深刻,但这并没有真正捕捉到里德的特别之处,那就是他本人是一个超越生活本身的人。
里德是一位坚定的乐观主义者,他无数的兴趣和活动(金融、社会和政治)源于他对人类潜力的真正信念,以及他对人类的同样真诚的关切。他有着极其广泛的兴趣,包括从政治(也许对他自己来说有点过于活跃了),
到棋盘游戏和科幻小说,里德实际上是我寻找下一部伟大科幻小说的常去来源。他是一位积极而广泛的慈善家、播客、旅行家、无数人的顾问,以及全面的文艺复兴时期人物。最重要的是,里德是每个人的朋友。当里德把我介绍给他的一位密友时,这位朋友和我开玩笑说自己是里德的1万个密友之一。
但对大多数人来说,这是一种挖苦的说法,说他们实际上没有一个密友。在里德的情况下,恰恰相反。他真的有1万人与他关系密切,他接触过并帮助过他们,并且与他们建立了真正的人际关系。里德有能力完全付出自己,以创造出能够
既快速又持久的方式。而正是这种品质最能激励里德的思想和行动。所以,请记住这一点,当你今晚倾听的时候。就这样,让我把舞台交给今晚的特别嘉宾,里德·霍夫曼。
顺便说一句,后半部分是我听过的最好的介绍。所以,我感谢你。这有点像——这是一件有趣的事情。我是在斯坦福大学读本科的,在我的整个大学期间,我的成绩单上写着“出生地不明”,考虑到我出生在斯坦福医院,这很有趣。是的。
所以,好吧,让我们开始吧。我今天想到了赫拉克利特,即使我们永远无法回到完全相同的点,我们也会回到赫拉克利特。当我第一次访问LSE时,我是在牛津大学攻读硕士学位,有可能成为一名哲学教授。那是90年代初期。大约在那个时候,第一条短信被发送。它是,
英特尔发布了奔腾处理器,房间里的大多数人可能都不知道这是什么。蒂姆·伯纳斯-李向公众介绍了万维网。今天,我和你们在一起,我作为一名技术专家、投资者和创始人回到了LSE。全球每天发送约260亿条短信。
英伟达的H1000 GPU的性能大约是奔腾处理器的60万倍,大约70%的全球人口使用互联网。我的观点不仅仅是时间胶囊技术进步和我的职业发展,而是平等地看待世界有多么不同,以及我如何看待它的不同。赫拉克利特是对的。
一个人不能两次踏入同一条河流,不仅因为河流不同,而且因为我们自己也发生了变化。作为人类,我们倾向于将我们理解世界的方式投射为静态的,或者至少我们比我们自己和我们对世界的理解的变化更能认识到世界上的变化。
这关系到人们在人类语言出现之前就一直在努力解决的一个问题的核心,以及从前苏格拉底到波普尔及以后的哲学家们都会努力回答的问题。
我们如何理解世界?这也许是我们最根本、最人性化的问题。正如你们许多人所知,我们有经验主义者,他们将我们的知识根植于我们的感官经验,理性主义者,他们从理性与先天观念中获得知识,理想主义者,他们认为知识是由心灵调解的。名单还在继续。我们的思想流派似乎比我们自己的思想还要多样化。
作为一名技术专家和人文主义者,我想补充并强调的是,人类常常低估了我们对世界的理解有多少来自纯粹的理性、知觉,以及对不起,高估和低估了有多少是通过技术调解的。这不仅是因为技术本身的作用和力量,还因为我们从根本上是谁。
我们不仅仅是智人。如果我们仅仅达到科学分类的标准,整天坐在那里思考,我们将成为与我们现在截然不同的生物。我们是技人,是制造和使用工具的人。
技术可以扩展我们的视野,从字面上看。望远镜和显微镜帮助我们看得更远、更深。它通过飞机、书籍或视频通话将我们传送。它延长了我们的寿命,例如通过医学或基因疗法。许多人已经忘记了我们的技术——语言、货币、轮子——是日常生活的基础。
这对我们是谁以及我们将成为什么样的人同样重要。我们随着工具的发展而发展,并通过工具发展。我们塑造我们的工具,然后我们的工具塑造我们。在这种交流中,我们的认识论和形而上学也在发展。我们对世界的理解通过技术得到了更新,而这种现象在人工智能面前从未如此真实。我发现令人困惑的是,人工智能的这一刻,这个当前的人工智能时代,
这将是我们迄今为止遇到的任何其他技术一样重要的认识论和形而上学进化。为什么?只要考虑一下人类对人工智能模型构建的中心地位。我们在线人类知识的语料库被吸收以构建基础模型。
强化训练,或模型做出决策和制作输出的方式,是由我们与它们的互动来指导的。我们提示AI生成的內容被我们所消费,并融合回人类的数字规范中。这种转变现在挑战了我们几千年来通过与人类的讨论来理解世界的方式。从本质上讲,一个人说他们相信关于世界的某些事情的过程
这保护了与其他人类的协议。现在有了人工智能,我们有了人类的一个超级称职的延伸和我们知识的应用。此外,人工智能并不是一个静态的工具。我们不断改进它的学习和生成方式。那么,我们将如何集体使用它来塑造我们对世界的理解呢?
这是一个摆在我们所有人面前的问题。由于我们所有的技术,这些基础人工智能模型可能是我们作为一个整体的最佳技术近似值。好的、坏的和丑陋的。我们所有的共同点和差异的全部范围,尤其是在更多人获得人工智能的机会不断增长的同时。
这使得关于人工智能如何造福社会和人类的讨论更加有趣,但也更加复杂。这就是我今天想关注的。人工智能对社会意味着什么。在这个主题上,我有三个重要的问题希望解决。首先,技术的价值来自哪里?
其次,人工智能可能会扰乱社会中的哪些方面?第三,它可能会如何改变社会之间的动态?让我们从关于像人工智能这样的世代技术及其价值起源的第一个问题开始。这可能是一个好的开始,因为它有助于我们衡量我们在定义其价值方面是否有自主权,或者它更多的是一个天生好或坏的工具。主要有两种思想流派。
第一种认为技术是价值中性的,他们认为技术本身并非天生好或坏。这取决于人们如何使用它。第二种思想流派认为技术是价值负载的,技术本身是好是坏。我相信是第三种,两者兼而有之。
那些认为技术是价值中性的人往往会忽略技术发展和部署中固有的伦理复杂性。考虑一下香烟或原子弹。两者都是人类智慧的产物,但它们对社会的影响引发了深刻的道德问题。
尽管香烟有其经济贡献,但它却引发了全球公共卫生危机,而原子弹则从根本上改变了地缘政治的结构,带来了生存风险。让我们想象一下,如果纳粹德国在二战期间比美国更早地研制出原子弹。这种技术在一个法西斯政权中的形状和部署将产生灾难性的后果,但
可能会以与民主和人权背道而驰的方式重塑战后全球秩序。在这种情况下,价值中立的立场就崩溃了。但价值负载的方法也不完全正确。这种立场的倡导者可能会将人工智能视为解决人类最大挑战的灵丹妙药,或者相反,将其视为反乌托邦的预兆。然而,这种观点同样存在缺陷。
技术不是具有不变的、内在的道德或效用属性的原材料。它可以而且必须与人类价值观相结合,以实现特定的目标。阿尔弗雷德·诺贝尔的炸药既不是天生具有建设性,也不是天生具有破坏性。人类在建造隧道和建筑物以及打仗时都会使用它。
而今年,在诺贝尔的名义下,人工智能先驱们因在化学和物理学方面的进步而获得了他的著名奖项。作为人工智能的使用者,我们可以决定并奖励我们想要的影响。那么,技术是价值中性的还是价值负载的呢?
都不是。事实是,它的价值是雕琢出来的。它作为一种技术具有初始和惯性特性,然后我们人类将其雕琢和雕刻。我们塑造它,不像质量,而像大理石。这需要肌肉、张力和重复,我们必须尊重和承认它的特性,同时将其塑造成我们的目的。
而我们雕刻的顺序也很重要。首先,采用植根于科学严谨性和事实验证的价值中立方法对于技术发展的早期阶段至关重要。我们必须检查人工智能背后的逻辑结构,但在它落入人们手中后,必须严格修改我们的假设和方法。
迭代部署,或邀请公众参与人工智能的开发过程,可以加快这一进程。这种整体方法反映了科学方法,系统化、客观和有条理。然而,随着人工智能融入社会,价值负载的视角变得不可或缺。我们必须问,如何才能将人工智能塑造成优先考虑人类福祉,现在和未来?
它如何在最大限度地减少危害的同时放大我们的集体能力?例如,人工智能和医疗保健的目标不仅应该是更准确地诊断疾病,而且还应确保公平获得这些进步,无论其社会经济地位如何。一对一的谈话持续了一段时间。水,有用。
获得顺序价值中立和价值负载方法的地缘政治意义重大。构建和部署人工智能等变革性技术的社会对全球秩序拥有相当大的影响力。这强调了人工智能的地缘政治重要性。它不仅仅是一种工具,而是一种权力动态的驱动力。
正如印刷术颠覆了早期现代欧洲的宗教和政治结构一样,人工智能有可能重塑经济、治理和国际关系。然而,历史提醒我们,由变革性技术催化的转变很少是顺利的。同样,印刷术虽然实现了知识传播的空前发展,但也引发了几十年的宗教冲突。
人工智能也会带来混乱。然而,正如印刷术最终变得不可或缺一样,如果我们明智地管理其过渡,人工智能可以创造一个更加互联和赋权的全球社会。让我首先声明,这种转变并非易事,我们对此感到担忧是好事,因为它在某些方面和地方会很痛苦。
人类作为一个物种,历史上不擅长过渡,但我们可以更好地了解这一点。过渡对社会来说既困难又重要。每次我们整合一项新技术时,变革性技术最终都会成为人类不可或缺的一部分。
无论我们的规划和协调如何,向人工智能未来的过渡都将进行,但我们应该对此进行深思熟虑和明智的处理。为了最好地应对这种破坏,我们必须推进人工智能的积极用例,并在社会中促进更平稳的融合。这需要超越关于人工智能内在价值的二元辩论,而是关注我们对它的代理权。
如果我们正确地和集体地利用人工智能,社会将体验到超级代理。当大量个人因人工智能而获得个人赋权,开始在整个社会中复合运作时,就会发生这种情况。换句话说,这不仅仅是一些人因为人工智能而变得更有见识和装备更好。
每个人都是。即使那些很少或从未直接使用人工智能的人也是如此。你可能不是医生。
但突然之间,你的医生可以用人工智能的精确度来诊断看似无关的症状。你可能不会修理汽车,但你的机械师的人工智能代理现在可以立即诊断出你的汽车加速时发出奇怪声音的原因。甚至自动取款机、停车收费表和自动售货机都是多语言天才,他们理解并适应你的喜好。
这就是超级代理的世界。这些在各个职业、行业和部门的增强和丰富不仅仅是为社会增加了价值,它们改变了社会。这种进化不仅是不可避免的,而且已经在进行中。我们有机会让它更多地关注人类的放大,而不是人类的替代。我们可以考虑到超级代理来设计,而不是在它出现在社会中时从后面追赶它。
随着超级代理的世界开始更全面地出现,我们将听到以下问题被反复地以越来越高的音调提出。你有什么权利扰乱社会?这个疑问常常带着尖锐的怀疑,甚至是愤怒。毕竟,没有人投票邀请这场技术巨变的浪潮。然而,破坏并非来自真空中。
它根植于自由社会赖以生存的基本权利。创办公司的权利,开发产品的权利,向公众提供该产品的权利以及公众参与该产品的权利。
这些权利虽然必不可少,但它们本身并不会造成破坏。破坏发生在供求关系的交汇点,发生在产品市场契合的拐点。一项技术在与人们产生共鸣时,在他们采用它、为它付费并将其融入他们的生活时,就会造成破坏。如果没有需求,即使是最雄心勃勃的创新也会失败。
在我说话的时候,你们中的一些人可能会感觉到技术决定论或强大的资本主义车轮,但我向你们保证,我们有选择。
但是,虽然作为个人参与人工智能可以是一种个人偏好,但作为社会不参与人工智能的后果是严重的。抵制参与的社会只会将它们的融合推迟到采用的后期,从而失去在形成阶段塑造技术的机会。
他们还将延缓人工智能可能为他们人民几代人带来的健康、财富和幸福的益处。然而,不可避免性并不意味着被动性。赫拉克利特的河流在不断变化,但我们也在不断变化。我们可以决定我们如何穿过它。
正如水手根据风向调整航向而不是放弃舵一样,我们也必须用人工智能来引导航向。如果正在发生破坏,紧迫的问题就变成了,它将采取什么形式?一些破坏比其他破坏更容易想象。我们对人工智能如何大规模地使人们能够获得关键资源有清晰的认识,并且
例如,人工智能驱动的医疗助手可以将优质医疗保健带到医疗专业人员稀缺或负担过重的服务不足或偏远地区。同样,人工智能驱动的导师可以使数百万学生能够获得个性化教育,以传统课堂可能无法实现的方式将课程调整到个人的需求。像这样的工具可以增强人类的能动性,并解决系统性不平等问题。
然而,除了这些积极的转变之外,人工智能还必须受到保护,以防止其被用于非人道化的应用。加速药物开发的相同技术可以被武器化用于生物恐怖主义。提供高度个性化、定制化服务的相同技术可以被用来进行监视。可以放大个人品牌的相同技术可以被用于深度伪造,从而操纵公众舆论并制造不信任。
这些风险无法消除,但可以通过人工智能本身以及深思熟虑的监督来减轻。除了这些一阶效应之外,更深刻和复杂的破坏还在等待着。例如,工作的转变。我们如何理解一种可能消除工作和部门,但也创造新的职业和行业的科技?历史提供了有益的相似之处,例如织布机。
动力织布机的出现改变了英国。它的织布速度比熟练的织工快40倍。由于机械化,50年来棉花的成本下降了80%。纺织品,特别是棉花,成为英国最大的工业部门,约占英国出口的40%。
在社会层面,动力织布机无疑改变了英国以及几代受益于这项创新的人们。虽然生产力飙升,但对于那些生计被淘汰的人来说,这种转变是痛苦的。这项创新取代了无数的手工织工,引发了19世纪英国的卢德运动。
直到士兵和法律被用来阻止他们,卢德分子烧毁了工厂,杀死了工厂主,并摧毁了数千台动力织布机。
在变革性变化中,机器本身成为一个方便的目标。当然,技术为之铺平了道路。但根据作者布莱恩·默尚和几位他引用的历史学家的说法,这些织工反抗的与其说是技术,甚至与其说是具体的机器,不如说是工厂制度、其剥削性的工作条件以及这种新的生活方式所要求的规章制度和看似丧失的自由。
那么,我们如何解决潜在的系统问题,为显然有益于社会的创新创造更有利的环境呢?我们如何应对破坏的中间成本并加速整个社会的利益呢?让我提供三种方法。第一种是我们社会如何看待这项技术。第二种是我们如何部署这项技术。第三种是我们如何管理这项技术。
我希望我目前的言论已经开始说明我们社会应该如何看待人工智能。人工智能并非生存威胁,如果我们继续塑造它,它可以成为心灵的GPS,并开启一场新的认知工业革命。虽然我喜欢隐喻,但我实际上非常有意地引用GPS或全球定位系统技术。
早在70年代初期,美国国防部就开始致力于最终成为GPS的技术。
这项技术使用来自中地球轨道多个卫星的无线电信号来精确定位地面接收器的地理坐标。到十年结束时,美国空军已经拥有一个仅供军事使用的系统雏形。然后,在1983年,苏联军队击落了一架偏离航线进入苏联领空的韩国客机。
为了避免类似的灾难,美国总统里根宣布,一旦GPS完全投入运行,美国也将将其用于民用。多年以后,比尔·克林顿总统完全履行了这一承诺,向公众提供了GPS所能提供的全部权力和能力。
这两位来自不同阵营的总统的这些行为为一个自由的全球公共事业铺平了道路,这个事业已经成为导航21世纪的不可或缺的资源。今天,我们所有人都在使用GPS。
如此之多,以至于它在后台以我们甚至可能没有意识到的方式工作。循序渐进的导航是我们从GPS中受益的最常见方式,但这远非唯一的方式。GPS提供的精确计时信息用于同步电信网络中的时钟,从而有助于保持移动电话通话清晰且无延迟。
在自然灾害和其他紧急情况下,急救人员使用GPS驱动的无人机来寻找失踪人员,快速绘制受灾地区的图,甚至向难以到达的人们运送物资。GPS实现的精确农业技术使各种有机农产品更加实惠。
那么,这个关于GPS的冗长绕路,具有讽刺意味的是,与人工智能有什么关系呢?首先,它规划了一个清晰的例子,说明当政府采取亲技术、亲创新的视角并将私营部门的创业视为实现公共利益的战略资产时,可能产生的积极结果。
其次,它也是一个很好的例子,说明我们如何有效地利用我们的能力,将像地理坐标和时间戳这样的大数据转化为可以用来为我们生活的许多方面提供上下文感知指导的大知识。
第三,也是对民主最重要的一点,它增强了个人的能动性。诚然,我们每个人都随身携带一个追踪器,一个带有麦克风和摄像头的设备,一个可以用来监视的设备。但另一方面,我们拥有一个几乎可以确保我们永远不会再次迷路的工具。
Contributor(s): Reid Hoffman | Artificial Intelligence is not only a generational technology, but also a general purpose technology—one that has outsized potential to transform societies and economies globally. How should we use AI to not only better understand the world, but organise, develop, and elevate it?</context> <raw_text>0 因此,如果我们能就这种看待人工智能的方式达成一致,那么让我们深入探讨如何将其融入社会,如何以最大限度地减少成本并加快社会收益的方式部署人工智能。让我们回到两年前ChatGPT发布的时候。
它在效用和创造力方面都具有神奇之处。你可以让它为你写一篇论文,或者评论你写的一篇论文。你可以让它根据你即将参加面试的公司撰写问题,或者为亲戚的生日创作一首个性化的史诗般诗歌。而这仅仅是个开始。ChatGPT的功能获得了广泛赞誉,这是有充分理由的。对个人来说,它非常出色。
但对我来说,它在向公众部署的方式上同样非凡。发布时,ChatGPT功能强大,但远非完美。事实上,对于那些关注的人来说,它是OpenAI GPT系列中的第四个主要模型。那么,这为什么重要呢?OpenAI本可以秘密开发这项技术,直到一小群专家认定它以足够有效和安全的方式运行。
但相反,它抓住机会邀请公众参与开发过程。这被称为迭代式部署。个人用户现在处于体验的核心。同样重要的是,它给了他们寻求或设计体验的机会。这标志着人工智能发展和人类赋权的关键转变。迭代式部署允许托马斯·杰斐逊所说的“被统治者的同意”。
应用于人工智能领域,是指人们如何接受或抵制新技术以及它们最终激发的新的规范和法律。如果长期目标是安全有效地将人工智能融入社会,而不是简单地禁止它,那么公民必须在使人工智能合法化方面发挥积极和实质性的作用。这就是我们如何获得高度易于访问、易于使用的人工智能,
它明确地与你一起工作,为你工作,而不是对你工作。但是,一旦我们将人工智能释放到世界上,我们该如何作为一个社会继续管理它呢?我相信最有效的方法是通过迭代式部署。但是许多人,尤其是在欧洲,我知道对英国来说,这几天有点牵强,但是
可能会本能地寻求监管行动。虽然我不无条件反对政府监管,但我仍然认为,开发更安全、更公平、更有用的人工智能工具的最快捷有效方法是通过迭代式部署。这使我们能够承担更小的人工智能风险,以更好地应对任何重大风险。
当我提到我们必须承担小风险来应对大风险时,我应该提到,作为个人和社会,我们总是在承担风险,无论我们是否知道。一个常见的误解是,我们可以避开风险,而实际上,为了避免风险而停止或暂停本身就是一个风险,而且往往比一开始就承担风险更危险。
因此,如果我们注定要始终承担风险,我们的重点不应放在避免风险上,而应放在应对风险上。而最明智的方法之一是利用小风险来应对大风险。更频繁地承担较小的风险风险较小,并允许迭代、讨论和持续改进。对不起,持续改进。这就是美国经济学家海曼·明斯基提出的建议,特别是他的明斯基时刻的概念。
明斯基时刻是指市场情绪突然下降导致市场突然大幅崩盘的时刻,标志着一个经济繁荣时期的结束。为了过度简化它,明斯基的论点是,稳定会产生不稳定,短期内最大限度地提高稳定性会导致中期和长期不稳定。
金融体系上的安全措施过多实际上会使其更加脆弱。对不起,更脆弱。残酷的,也是。当事情崩溃时,没有人做好准备,它就会变成一个巨大的事件。当我们思考人工智能时代时,我们可以从明斯基时刻中学习。这意味着找到适当级别的人工智能安全措施和法规,不仅要鼓励进步,还要更好地巩固一个越来越多的AI的系统。
我们必须承担小风险来应对大风险。很多都是通过迭代式部署来实现的,定期向具有不同价值观和意图的各种用户提供人工智能。但为了避免人工智能领域的明斯基时刻,我希望我们能够将重点集体转向衡量和对话,而不仅仅是监管。需要明确的是,我并不是说不要监管。
只是我们找到先衡量再行动的方法,并且我们通过更多关于如何做的对话来循环,而不是立即转向如何立即监管。简而言之,让我们先通过衡量来进行监管。当政府说我们担心人工智能的这一部分时,我们首先要问的问题是,
我们如何衡量这种担忧或不良结果,而不是,哦,不,我们如何停止或暂停人工智能?这种公共部门对人工智能的反应和反应的转变至关重要,不仅对我们的国家而言,而且因为世界各国也正在进行这场对话。这将我们引向第三个也是最后一个问题。人工智能如何改变社会之间的动态?
在全球舞台上,人工智能不仅通过军事实力(一种常见的历史类比)的视角,而且通过更微妙、可以说是更相关的经济力量的视角,准备重新定义国家之间的动态。
当变革性技术在历史上重塑社会时,它们是通过提高生产力、改变贸易平衡以及从根本上重新定义参与全球经济的意义来实现的。人工智能将不会有所不同,但其影响的规模和复杂性将是无与伦比的。军事隐喻很诱人,并非没有先例。
历史提醒我们,拥有优越武器的社会往往会支配那些没有武器的社会。这导致人们持续关注硬实力,即通过军事手段强制或控制的能力。然而,人工智能虽然与国防和安全相关,但远不止于此。它的真正意义在于其作为经济放大器的潜力,正如约瑟夫·奈所设想的那样,重新定义软实力,
能够将人工智能融入其经济的国家,不仅会增强其全球影响力,还会将其公民转变为快速发展的全球市场中高生产力的参与者。
想想互联网、移动电话和云计算等数字技术是如何重塑商业和互联互通的。即使是历史上与主要经济中心脱节的农村农民,现在也使用移动应用程序来优化他们的作物销售或预测天气模式。这些渐进式的改进从根本上改变了个人和社会参与全球经济的方式。
人工智能将成倍地放大这种转变。那些拥抱这场类似于18世纪和19世纪工业革命的认知工业革命的国家,将获得不成比例的财富和稳定性。正如早期工业化的国家后来主导全球贸易一样,在人工智能领域领先的国家将塑造21世纪地缘政治的轮廓。
然而,国际社会对人工智能的反应远非一致。联合国等全球对话揭示了不同地区处理这项技术方式的鲜明对比。在西方,主要问题往往是,我们应该允许这样做吗?政策制定者和公民都在努力应对伦理困境、私人担忧和过度扩张的恐惧。
然而,相比之下,在全球南方,呼吁更加迫切。请您把我们包括在内好吗?对该集团中的许多国家来说,人工智能不仅是一个机会,而且是跨越数十年发展障碍的潜在生命线。
与此同时,中国问道,我们如何利用它来加强治理并扩大其全球影响力?其对人工智能驱动的监控和智慧城市技术的投资体现了将人工智能作为集中权力和确立主导地位的工具的愿景。
Rush的重点虽然有所重叠,但很大程度上倾向于利用人工智能来增强地缘政治影响力,通常带有破坏稳定的意图,例如针对能源电网或通信系统的网络攻击的可能性。这些不同的方法突显了一个更广泛的现实。
全球社会对人工智能的需求和愿望正变得越来越多样化。无论是国家行为者还是非国家行为者,流氓行为者都增加了另一层复杂性,他们试图将人工智能武器化用于生物恐怖主义、黑客攻击或虚假信息宣传活动。这种支离破碎的局面提出了一个关键问题。国际社会如何在解决这些不同的优先事项的同时,围绕共同目标达成一致?
历史提供了一条部分路线图。二战后时代证明了包容性在全球治理中的价值。联合国等机构和马歇尔计划等框架不仅旨在重建,而且旨在让不同的国家参与到共同的进步愿景中。这种包容性促进了稳定与合作,使主要大国和小国都受益。同样的原则也适用于人工智能。
虽然美国和欧洲理所当然地优先考虑自己在开发人工智能工具和模型方面的领导地位,但我们也必须认识到将其他国家纳入这一过程的重要性。这样做不仅能建立善意,还能减轻造成两级全球体系的风险。
一些国家不成比例地获益巨大,而另一些国家则落后。然而,包容性说起来容易做起来难。官僚程序和民主制度,尤其是在西方,往往会减缓决策速度。在一个像人工智能这样竞争激烈且发展迅速的领域,这可能是一个不利因素。在速度和审慎之间取得适当的平衡至关重要——
但如果我们偏向其中一个,那就让它成为速度。这是我们塑造这个新人工智能时代走向美好的最佳机会,尤其是在这种转变不会放缓的情况下。
当我们与之匹配并迅速行动时,我们可以依靠西方民主和制衡体系的基本原则来负责任地运用权力,即使我们在迅速塑造它的同时。在这个系统中,制衡不仅仅是政府的,还有公共部门和私营部门、新闻界和非营利组织的重叠网络。我们所有人都是参与者,我们所有人都可以成为受益者。
未来的挑战仍然是艰巨的,但机遇也是如此。将围绕人工智能的对话框架设定为技术上积极和面向未来的至关重要。特别是欧洲国家有机会以身作则,塑造强调合作、道德创新和包容性的对话。我们今天提出的问题将决定我们明天构建的世界。
应该在人工智能中嵌入哪些保障措施以确保它为人类服务?国际伙伴关系应如何加快人工智能的益处,同时减轻风险?我们如何确保人工智能的发展反映出各种各样的文化价值观和观点?当我们开始回答关于人工智能的问题时,我们将得到更多的问题,但我们也将获得更多全球进步、财富和机遇。
人工智能不是一条停滞的河流。事实上,它可能是我们流动速度最快的河流。很快,它将成为最广阔、影响最深远的河流,其支流遍布整个社会。像尼罗河和幼发拉底河一样,如果我们继续与它一起建设,它可以成为我们文明的摇篮。因此,我们回到赫拉克利特。站在河岸上。更重要的是,我们将做什么?
文化有许多关于河流的寓言。有一个佛教寓言强调了在工具完成其目的后放下工具的必要性,还有一个苏菲寓言教导在挑战中要明辨是非,还有一个非洲寓言强调了对不可见事物的信念。还有无数来自基督教、印度教、土著和其他许多社区的寓言。
它们都可以给我们提供信息,但我认为我们需要一个现代寓言,一个为这个人工智能时代而创作的寓言,一个与赫拉克利特和我们今天产生共鸣的寓言。我希望为这个现代寓言贡献一行,但事实是,我们必须在我们的社会中,与其他社会一起共同撰写它。将会有许多草稿、许多作者和更多读者,但本着它与T.S.艾略特的这些诗句相符的精神。
我们将不会停止探索,我们所有探索的终点将是到达我们开始的地方,并第一次了解这个地方。
在未来十年中,我们将多次从这里出发,穿越这条人工智能河流。即使我们到达了使用人工智能的起点,我们也需要反复地重新审视这项技术以及我们对它的理解,这将对我们有所帮助。我认为艾略特知道这一点。在与上一节诗歌相同的书中,他写道,河流在我们心中,大海环绕着我们。
我们是人机共生的。当我们过河时,我们正在加深对技术和自身的理解。前方还有更具变革性和力量的东西,那就是大海。让我们不要停止探索。在技术方面,让我们不要停止迭代式部署。现代社会依赖于此。谢谢。
现在,至少我相信你们都明白我所说的他是一个乐观主义者是什么意思了。所以我们一会儿再转向问题,尽管我似乎丢失了我的在线问题跟踪器。我不知道它们发生了什么。正如我所说,有人会给你带来麦克风,说出你的身份、你的隶属关系,并提出一个简短的问题。不过,我将滥用主持人的特权,提出第一个问题,但我认为这不是你期望我提出的问题。所以在这个故事中,有一种狮子与羔羊同卧的预期。
我想问的问题是关于我们实际上如何能够做到你所建议的所有事情的政治经济学问题。而通过这一点,这最初并不是关于人工智能的。它实际上是关于我们如何广泛地思考人工智能。
全面的经济监管。我们的第一个假设是,我们倾向于将人们视为消费者。我们倾向于认为,然后需要制定能够降低价格并使人们更容易获得商品的经济政策。我们通过提高生产力和效率来做到这一点。
人工智能与织布机等早期技术之间的区别在于,织布机可以创造机器的可能性。织布机本身无法操作机器。那需要人来做。但人工智能原则上可以学习如何完成它创造的任何新工作,尤其是在机器人技术赶上它之后,这很可能在未来发生。所以在我看来,只要重点放在降低生产力上,
通过提高生产力和效率,几乎没有哪项技术不能比人类更便宜、更快、更有效率地由人工智能完成,在这种情况下,我们确实存在工作流失问题,这意味着进行这种转变的唯一方法是认为我们还必须将人们视为工人。现在我们必须做出一些复杂的权衡。
为了保持和创造就业机会,我们将降低多少价格并提高多少生产力。我想我的问题是,你如何看待这种情况在我们生活的现实世界中真正发生?
所以有几件事。首先,转型总是困难的。所以我并不是说,就像整个事情的一部分一样,我们真的必须关注转型。我们拥有的人工智能优势之一是,人工智能可以帮助我们进行转型。例如,它可以帮助提高技能,帮助寻找新工作,并且它可以随着动态变化,这只是一个普遍的原则。其次,关于工作演变的速度,这是一个未知的问题,无论是替代人类还是增强人类。有些事情在替代方面非常清楚。例如,如果你有像客户服务这样的工作,人类遵循脚本试图成为机器人,
机器人更好,对吧?这就是这项工作将会发生的事情。现在,这些工作也可能会转变为更具战略性的工作,对吧?不仅仅是如何以最便宜的方式让一个人离开电话,因为对于大多数美国企业来说,一次电话平均要花费7美元到15美元。我不知道这里的平行定价是多少,但我了解美国企业的定价。
可能类似。因此,你试图降低成本,但突然之间它可能成为一种建立关系、建立品牌的练习,其中可能还有其他事情,也可能有人类参与其中。
作为一个相反的例子,例如,如果你说,嘿,有了这个AI工具,这个销售人员的效率提高了10倍。我可以告诉你,作为一个商人,你不会解雇销售人员,但你会雇佣更多的人,对吧?因为这就像,太好了,这是生产力的良好提高。所以这就像,我必须为这个想出一个更好的词,但经常使用的技术术语是“人机结合”,即人与机器。我认为会有一个......
很多这样的工作。所以现在挑战仍然是转型,因为人类将被使用人工智能的人类所取代。这就是超级机构参与其中的部分原因。
现在,最后一点是说,当我们可能到达这个地方时会发生什么?顺便说一句,在我看来,我们很快就会到达这个地方,这并不确定。我们到达了机器在各方面都更好的地方。它们在各方面都更便宜。我们是否喜欢社会崩溃?
好吧,这里有一个来自欧洲和其他国家的有趣的历史平行,在中世纪,那是贵族的生活,对吧?基本上其他人都在工作,对吧?所以,你知道,其他人都在工作,他们过着这样的生活,让我们,我们要去参加晚宴,我们要去看戏等等。所以,如果你有一个完整的底层结构,仍然有可能拥有一个社会。现在你需要更多地......
确保权力赋予了正确类型的人类能动性,这就是我出版这本关于超级能动性和将人类能动性作为技术发展视角的书的部分原因。
但即使在这种情况下,我也不是反乌托邦的。现在,我倾向于认为,我们往往只是画直线。好吧,我们将到达那里。你知道,关于普遍基本收入和UBI有很多讨论。我认为这实际上比人们想象的要遥远得多。而且,但真正的问题是,中间步骤将是多个过渡时期。
尽可能优雅地驾驭这些时期是应该关注的正确事情。
好的。我有,但我将,让我们,你知道,麦克风在哪里?顺便说一句,仅供参考,你知道,在一个地方并像我一样热爱伦敦政治经济学院,就是热爱它的缺陷以及它的伟大品质。所以存在技术困难。所以我们现在无法在线回答问题。所以,是的,就在那里。顺便说一句,那是人工智能干扰了它,但这没关系。是的。
没有幻觉。你好,里德,我是格雷厄姆·洛夫莱斯。我的出版物从创作者的角度记录了生成式人工智能的发展。你对全世界数百万内容已被人工智能吞噬的创作者们说什么?在许多情况下,这些作者再也无法撰写他们一生都在研究的主题了。前几天一位作者告诉我,她花了15年时间写了一本书。现在可以通过人工智能逐字逐句地获得这本书。
好吧,我知道大多数诚信项目都试图避免让你简单地获得逐字逐句的文章,更不用说一本书了。所以当《纽约时报》发表它从诉讼中获得的东西时,为了让AI模型复制这篇文章,你必须输入这篇文章的前半部分。
所以假设是你已经可以访问这篇文章了。不可能说,给我7月5日发表的关于这个主题的文章等等。它不会那样生成。所以现在为了应对这一挑战,我们必须应对的是,我们有多个国家正在开发AI模型。有些国家比其他国家更关心这些创作者的权利。例如,中国不在乎。
所以我们必须如何应对这个问题,这也是为什么全球和多边视角很重要的一部分。现在,我个人倾向于认为,我们实施某种......例如,当我们定义版权时,我们定义的不仅仅是你只允许做以下事情,而是说这些是最重要的事情。例如,
你正在获取内容制作人正在制作以供销售的东西,而你正在提供它,而它不再——销售不再为制作人提供服务。你不应该这样做。并且这种——开放式人工智能、微软和谷歌都在努力避免这样做。话虽如此,他们的前景——这是一件具有破坏性的事情。现在有——有——如果每个人实际上并没有——
开始尝试和使用人工智能,那就是迭代式部署,用于思考下一阶段的样子,你将很快落后。我认为人们往往会过度计算我的内容有多特别。所以我与一群围绕《星球大战》的好莱坞创作者讨论过这个问题。
我向他们指出,你可以删除所有关于《星球大战》的受版权保护的内容,人工智能仍然可以生成《星球大战》图像、《星球大战》同人小说等等,因为网络上有很多内容。它是一个推理和泛化机器。
所以,虽然“你偷了我的文章”的说法很简单,但实际上它并不完全适用。但我也知道,优秀的参与者也在努力为新的创作者经济服务。所以,坐在第四排穿白色衣服的女士,在上面。是的。
您好,我打断这个活动是为了告诉您另一个我们认为您会喜欢的很棒的伦敦政治经济学院播客。伦敦政治经济学院IQ邀请社会科学家和其他专家回答一个聪明的问题,例如为什么人们相信阴谋论,或者我们能否负担得起超级富豪?来看看我们吧。只需在您收听播客的任何地方搜索伦敦政治经济学院IQ即可。现在回到活动。
有人举手。我们很快就可以准备好下一个问题了。继续提问吧。你做了GPS的类比,我确实经常使用ChatGPT。例如,当特朗普当选时,我问他,为什么人们会投票给特朗普?他给了我一个非常平衡的答案。我只是想知道你是否觉得这些故事
我称它们为超级模型,会变得更像社交媒体,因为它们不再平衡。它们只是向我们提供我们想听到的信息,因为我不知道我读到的答案是否与其他人的答案相同。好吧,关于这些AI模型的有趣之处在于它们反映了......
目前,这将发生很大的变化,它们反映了两件事。一个是潜在的数据来源。第二个是强烈的人工强化学习。大多数人工强化学习往往类似于通常反映的偏差。
通常是精英大学的研究生,因为他们往往是经常被用于人工因素训练的劳动力。因此,你往往会得到的偏差往往会反映这一点,因为这一点。现在,他们试图通过训练制度来软化它,使其在认知上更加多样化和包容,但这就是它的历史
现在,这将改变,因为我认为人们会故意开始反思,好吧,这个模型,例如,你知道,我最近和一位作家朋友谈过,我的作家朋友说,我真的很喜欢使用Anthropics Cloud,我讨厌使用Gemini,因为它太复杂了。
因为当我试图创作困难的场景,例如角色的自杀时,我把这个场景放入Gemini,Gemini说,哦,我不能谈论自杀。好吧,我不允许。对。然而,Anthropics Claude允许她这样做。所以你会看到这些不同类型的模型的这种多样性。我认为我们将开始看到通过强化训练的设计意图是什么,以及它是什么。对我个人而言,
我认为讨论这些事情的最佳方式就像《经济学人》所做的那样,那就是我告诉你我的总体视角和方法是什么,并想反映它,然后我试图在我的范围内尽可能准确和事实。所以我认为你会看到你有一个——就像在美国导演中,你有一个红色偏见模型和一个蓝色偏见模型,你可以问他们两个。现在,关于当前模型的有趣之处之一是
你可以激怒他们来回答。因为在实验中,这就是我鼓励每个人都这样做的一部分原因,我给人们的最常见的提示建议是它扮演角色非常出色。所以如果你进去说,好吧,从美国中西部红州的角度向我解释特朗普的当选,
并从加州的角度向我解释特朗普的当选,对吧?你实际上会得到两个不同的答案,对吧?但这实际上是使我们能够将此作为放大智能的一部分的原因,因为它允许我们探索这一点。我认为这是我们既想学习工具如何做,又想让工具自然地提示进入的那种事情的一部分。但最终,这是一个非常长的解释
我们训练它们成为某种类型的生成设备。作为这种类型的生成设备,它将反映我们训练的偏差。所以我们应该更清楚地了解我们在做什么。我们在那儿有一个问题。
是工作吗?哦,是的。感谢你的演讲。所以当我听演讲时,这个想法出现在我的脑海里,所以我并没有真正考虑过它。所以这个问题可能没有很好地表达出来。在你的演讲中,你提出了很多类比,很多与过去的相似之处。但我认为过去许多技术在之前并没有类比。所以你认为人工智能有什么新东西,有什么超越那种技术的?
以前没有发生过什么,你认为它可以以积极或消极的方式添加什么?我使用了过去的类比,因为人们忘记的一部分是,当印刷机被引入时,我们围绕人工智能看到的许多论述当时也是如此。
例如,它会摧毁社会。它会降低人类的能动性和认知能力。我们不再需要记住事情等等。我们所有的印刷机。它会摧毁权威和真理,因为权威,大多是宗教权威,会说,不,不,我们控制着这个,才是对......你知道,在更虔诚的时代对上帝话语的真正解释者等等。
而这些与我们今天所做的事情的相似之处非常明显和清晰。你可以逐字逐句地引用人们所说的话,并将它们与对人工智能的一些批评进行对比。
记住这一点很重要,因为我们并非没有经历过颠覆性技术时期。现在,当然,有很多新事物。这是一个前所未有的速度,对吧?比如,我在人工智能领域创造了一些新东西,我通过数字服务和互联网传播它,理论上,我可以在第二天就接触到十亿人,对吧?这是新的。
事实上,这是——这是拉里的问题所暗示的一件事。事实上,它本身具有能动性,它可以做出决定,做事情,这是新的。事实上,对于其他人来说,它更难以理解,因为即使是今天的技术专家——这也改变了很多计算机科学。
你可能认为是数学科学的东西几乎变成了自然科学。就像,建造比例模型的人实际上并不知道它们会变成什么样子。我跟踪的一件事是我观察到的,以OpenAI为例,比如GBD2、3、3.5、4、4.0、1.0。
就像,没有人,我们是在训练它之后才发现它的新功能是什么样的。就像,这是新的,对吧?所以有一整套这样的东西。然后,当然,批评者或倡导者,
那些倡导暂停或停止或其他事情的人,会指出这一点并说,不,在我们完全理解这一点之前,我们不应该允许它。问题是,这不是人类社会运作的方式。这不是相互竞争的国家和行业运作的方式。就像,这就是设定时钟的方式。然后我们必须在这个速度下进行操作。所以,是的,有一些新东西。现在,他们说,哦,速度是不是很糟糕?好吧,这样想。
我们每个月推迟在每部智能手机上安装医疗助手,就意味着我们每个月推迟数十亿人获得关于我、我的孩子、我的父母、我的宠物以及我应该做什么的信息。
这方面的成本以及生命和痛苦是巨大的。因此,实现这一目标的速度实际上在人文主义的背景下是一个巨大的好处。这不仅仅是应对挑战的问题。也是这样。这就是为什么,总的来说,如果我说,好吧,我们应该明智地应对。但如果你犯了错误,那就朝着速度快一点的方向犯错。
所以我们去找这位穿绿色毛衣的女士,然后是她前面的男士。不,不,这里。哦,就在这里。哦,你已经说出来了。好吧。那个人。是的。然后我们下去找穿绿色毛衣的女士。然后是这里的人。我们到那里。你好,里德。首先,我要提前道歉。顺便说一下,再说一遍,再说一遍你是谁,你的关系,等等。我的名字是赛义德·穆罕默德·瓦希德,我实际上是伦敦政治经济学院的校友。我在数字创新方面完成了我的MIS硕士学位。
我现在担任人工智能研究员,这就是为什么我发现你的演讲特别有趣和有见地。我要再次提前道歉,这可能不是你今天收到的最简短的问题。尽量简短一些。你能用人工智能来帮你解决这个问题吗?希望如此。我的意思是,所以我完全同意你的观点,
人工智能对我们的社会有着巨大的影响和冲击。它甚至深入到塑造我们随着时间的推移的理性与个性。我不禁把它与我一段时间前读过的一篇题为《本体论逆转》的论文联系起来,其中物理现实过去指导数字现实,但现在情况相反,数字现实指导物理现实。一个非常简单的例子就是GPS,一项你肯定经常引用的技术是GPS。
蓝点如何引导我们,我们如何遵循它,其中数字现实优先,物理现实其次。然而,我也恰好同意你提出的另一个说法,即你从价值塑造的角度看待人工智能或一般技术,其中人类迭代地塑造人工智能,甚至可能获得对其的超级能动性。
所以,既然我们都同意人工智能塑造和引导我们的社会,而我们塑造和引导人工智能的发展,你认为哪一方更多地参与了雕塑工作?这些雕塑动态是如何发挥作用的?哪一方?你指的是哪一方?是指人类还是人工智能?哦,棘手。是的,我会明白的。这,这,
我最终认为最好是用人文主义的视角来看待这个问题。所以我的确认为,我在过去一年中帮助促成的一件事
八年来,一直在努力确保各个领先的人工智能实验室就所谓的对齐问题进行沟通,你知道,这指的是它如何与人类福祉理论相一致。有些人认为这意味着保持严格的控制。我不一定这么认为,但是
但我确实认为,将人类福祉理论置于你所构建内容的核心,实际上非常重要。这是人文主义、人文科学、哲学在这个问题中发挥作用的一部分。我认为这非常重要。所以这是一个先有鸡还是先有蛋的问题,因为它是一个循环。
但我认为,牢记这一设计原则,是我们真正必须做的事情之一。我认为个体能动性是一种很好的方法,甚至可以集中这种可能过于分散的视角,这也是我将于一月出版的《超级能动性》一书的一部分内容。
你好,里德。我的名字是娜塔莉·布莱克。我是伦敦政治经济学院的客座实践教授,但我的日常工作,我犹豫着承认,是一名监管者。哦,不!所以我实际上想在拉里的问题上有所补充。关于市场力量的那一点,你如何看待这里的市场发展?我们会在五年、十年后看到,只是那些吞噬了小公司的大公司吗?
这种紧张关系与你在国际事务中所说的内容如何相符?你认为,为了保持相关性,政府是否需要在人工智能领域拥有国家冠军,这将成为外交政策的要求吗?我认为,将会有一小部分所谓的先锋模型,这是最大的集合。我认为,如果可以管理的话,
某个特定国家,任何一个特定国家的准入,考虑到其总体影响力,都是非常有用的。例如,美国从拥有大部分国际互联网巨头中受益匪浅。我认为这是一件有益的事情,但显然大多数国家都无法获得。
那么,我认为,这种策略就是说,好吧,但这并不是先锋模型。这不像《指环王》中的至尊魔戒,对吧?实际上将有一整套针对特定业务的不同训练特定模型。有很多原因,比如当这些模型变得更大时,它们的计算成本会呈指数级增长。因此,实际上,随着模型变得更大,我认为他们不会把它们放在
你可以随便吃,伙计,因为提供它们太贵了。所以,当我建议称之为国家的战略时,对于各国来说,就是要尝试弄清楚,就像与创业和其它技术类似。在哪些领域你可以仍然专注于人工智能,在某些领域拥有全球领导地位?因为人工智能领域将会有大量的东西。将会有
用于所有不同类型科学领域的人工智能,不仅仅是医学,这是一个显而易见即将出现的问题,还有材料科学以及许多其他领域。人工智能将在以下方面发挥作用:我们正在使用的代理的特征是什么?将会有字面上的
你知道,数百万个代理,不仅仅是代理的实例,而且是在不同类型的市场中的代理,它在市场中扮演什么角色?那么它如何在其中发挥作用?我的许多演讲和给监管机构的内容试图做的是说,看,想要控制所有这一切的冲动,在我们允许它之前先研究它,
然后会将你关注的事情从全球竞争时钟中移除。然后你就不会塑造它了。因此,重点不是仅仅试图避免可能出错的事情,而是可能正确的事情,并理解它有一个速度时钟。
顺便说一下,为了与我的言行一致,我正在投资许多非微软、谷歌、OpenAI等人工智能公司,因为我认为那里会有巨大的机会。所以我认为这实际上是可能的。我只是认为,对于初创公司来说,首先必须构建一台价值100亿美元的计算机,这非常困难。这对初创公司来说非常困难。
哈里·史密斯,伦敦大学哲学研究所。你好,里德。这是一个非常有吸引力的画面,迭代部署的想法,以及每个个体代理增强其能动性,超级能动性的想法。他们正在为我们发展我们的智力和能动性搭建脚手架,而我们正在为他们搭建脚手架。
但我不知道是否有一个关于责任的问题,真的要帮助人们理解他们正在参与什么,因为有些人会把它们视为工具,而另一些人则会把它们视为同事,尤其是在人工智能助手越来越擅长模仿和回应我们以及从我们这里引出回应时。而当我们
当我们过去玩伊丽莎或任何这些东西时,在框架内,它们非常令人信服,但我们可以跳出框架说,好吧,这是一个设置。这里更大的框架是,很多人认为它们真的很有智慧,它们真的是同事。我认为这里存在一个责任问题,要确保参与迭代部署的人理解。
完全意识到更广泛的背景,是谁提供的这些,他们试图做什么,他们是如何设计的。你不这么认为吗?总的来说,我同意。所以当我共同创立Inflection AI时,我们在对第一个问题的这种人类训练中所做的事情是试图在互动中非常清楚地表明
它是一种催化伴侣,而不是人。例如,如果你去Inflection的派,个人智能,然后说,你是我的好朋友,它会说,不,不,不,我是你的代理。让我们谈谈你的朋友。你最近见过你的朋友吗?是,你知道,等等,等等,等等,试图做到这一点。这同样是一个人为的设计原则。我不认为你需要像在上面贴警告标签那样多,而是设计原则是什么。
顺便说一下,当你接触到人工智能时,有趣的一点是,你会说,为什么我对人文主义持乐观态度,因为我知道通过这样做,你可以训练人工智能进行比普通人类更富有同情心的对话。所以这对帮助我们提升我们的同情心特征是一件好事。对。
我愿意收回它。无论如何,所以这显然我们可以从哲学上深入探讨。那么在那边,然后在那边,然后我会找到你。继续吧。你好,我是西蒙·莱文,风险投资家,也是拉里一开始提到的1万人之一。我的问题是关于速度。你提到中国是一个
也许是那种行动最快、最不守规矩的权威的代表。如果你要选择一两个重要的领域,比如
生物工程或隐私,你知道中国将成为这方面的先锋,但他们可能做的一些事情可能会挑战我们的价值观,你如何看待应对这些权衡?如果人工智能能够通过体外受精
创造一种超级儿童物种,而中国处于领先地位,这将是一件好事吗?我们想赶上他们吗?我倾向于认为,人类社会,人类作为一个物种,倾向于采用它首先发现的令人信服的事物。这就是速度重要的原因之一。
所以我认为,以我们希望体现的价值观将人工智能部署到全球范围内,速度是这些系数之一。这就是为什么我说速度的原因之一。这并不意味着我们应该一定认可——
一个糟糕的基因计划。现在,问题的一部分是遗传学很复杂,因为你会说,好吧,让我们看看,让我们摆脱亨廷顿氏病。这似乎是一件好事,你知道,等等。所以,你知道,这条非常哲学化的滑坡你不想最终导致每个人都拥有金发碧眼,对吧?作为一个,作为一个,你知道,优生学的姿态。
所以这些是我们必须解决的问题。但我认为,这就是为什么多边主义如此重要的部分原因。但我确实认为,比那个话题更温和的话题,但那个话题是一个非常真实的话题,比如中国不会关心。
他们将部署的模型中的知识产权和版权,他们将试图让它们达到全球规模。因此,如果你想要那些类型的创作者内容保护机制,你想要首先获得人们想要用作实例的那些类型的东西。现在,关于,你知道,编程遗传学意味着什么?
我认为,进行这项工作,然后体现这些价值观,并讨论我们应该拥有什么样的价值观,这将极其重要。不过我会选择头发。好的。我们之后再谈。
你好,非常感谢。我是谢丽·库图,86届校友,也是企业家。里德,我再次听到超级能动性和,你知道,我们的好朋友将以速度拥抱它。如果我们不这样做,我们将面临一些让我们感到非常不舒服的影响。对。
而且,嗯,我们经济中的不同利益相关者需要拉动不同的杠杆,他们可以采取不同的行动。你提到了政府,他们有一些可以拉动的杠杆。嗯,还有企业,其中许多企业比政府更有权力,他们可以拉动这些杠杆,从而加速......嗯,
人工智能的使用和人工智能的吸收。我们应该对什么最兴奋?或者你对哪个杠杆首先被拉动最乐观?是政府采取行动以便我们能够实现这个未来吗?还是企业?我知道我们都需要行动,但什么让你最乐观?如果我们让人们或利益相关者采取信息,
什么会让我们更快地前进?我们对什么敏感,会产生最大的影响?对于政府来说,首先要做的就是不要搞砸,这对于政府来说很容易做到,大多是以善意和良好的意图的方式。但你总是必须尝试校准你对这些事情的知识和自我重要性的感觉。
接下来,大多数人没有意识到,这本质上是——这对于大多数通用技术来说都是如此,因为它们在社会中达到规模——将由企业开发。因此,通过与企业合作来实现这一点,而不是将企业视为经典的——而且我很惊讶我没有得到经典的学术——
这些公司作为反社会利润机器将统治我们的命运并终结世界,这是我必须进行的通常的学术导航?我很高兴我还没有得到这个问题。我可以打电话给几个人。是的。如果你真的需要,他们就在这里。不,不,不。我很好。我经常回答这些问题。好的。
但问题是如何通过这种对被统治者的同意和包括政府治理在内的相互关联的网络来推动和塑造它,但也包括客户、员工、社区、媒体等等,以此作为一种导航方式。现在,我们可以加速它。例如,有两件关键的事情。
当中国真正加入这场竞争时,西方国家面临的挑战是其自然优势。一,针对西蒙的问题,例如,获得正确形式的数据,因为数据是驱动这一切的动力。如果你不创建数据共享,那么所有遗传学和医疗信息都将从中国来源倾倒到所有中国公司,甚至可能包括他们为了构建这些模型而从西方来源窃取的数据。一旦产品出现,
那么就是这样。因此,可以使用的数据的可用性很重要。然后是能源,对吧?因为专制政权比民主政权更擅长的一件事就是强行推行,这就是我们将获得几太瓦的地方。这对于如何在两年多的时间内发挥作用至关重要,这场游戏现在就在进行中,对吧,作为一种做法。所以......
好的,所以首先,在我们没有......
这么多人举手。我真的很感激。我们的时间不多了,所以我们将从拿着麦克风的那两个人那里获得最后两个问题。所以我们将同时进行两个。然后因为我们将时间用完。所以继续,砰,砰。你好。很抱歉我无法满足所有人的要求,里德更抱歉。是的,我确实很抱歉。你好,里德。我是阿吉特·梅塔,伦敦政治经济学院的校友。所以我的问题是,你认为在人工智能之后,下一个将影响人类的新技术是什么?这是一个很好的问题。是的。大卫?
你好,里德,我是大卫·罗恩。正如你所说,人类不擅长过渡,尤其是在他们害怕失去工作时。
他们的生计岌岌可危。那么,谁有道德责任确保他们拥有完成更高层次任务的思维方式和技能,而政府是短期主义的,而且负债累累?科技公司残酷地个人主义,而大学,恕我直言,仍然主要在他们十几岁后期和二十岁出头时培训人们。
正是因为我说了科林·大卫。对于那些不知道的人,大卫曾经是《连线》英国版的总编辑。对于第一个问题,我真的不知道。我认为,根据前面提出的问题,数字增强到物理现实的时钟非常快。所以有了人工智能,可能还有量子计算,
我们将发明新的药物。我们将发明新的材料。所以这个时钟在走。所以我倾向于作为一个投资者,并且将自己作为焦点保持非常清晰的社会数字化转型。
你知道,人们向我推销聚变能源。我在这方面做了一些投资。我很乐观。我实际上并没有把它作为投资者来做。我把它作为慈善家来做,因为清洁能源是解决所有这些问题的办法。就像我倾向于认为,那些不关注充足清洁能源的人不了解气候动态的真正运作方式。你不会得到像,你会得到,呃,
根据各种条约推迟不良后果,但解决它的唯一方法就是这样。所以我投资了它。但我并没有真正,我不是这方面的专家。我把它作为慈善事业来做。所以我希望如此。而大卫,对于你的问题,看,我认为我倡导超级能动性迭代部署和个人关注的部分原因是
是为了确保我们进行相互关联的对话来解决这个问题。因为我不认为这是一个获得蓝丝带小组的问题,你知道,你知道,前专家们来解决这个问题。事实上,我认为我们人类很难想象未来人类的样子,对吧?所以如果你在之前告诉人们,
他们体验过手机是什么样的,我们将把一个总是监听你的GPS追踪器放在你的口袋里。人们会感到害怕。
而现在他们就像,哦,是的,是的,是的。不,每个人都——他们更担心弄丢手机而不是钱包,对吧,就其运作方式而言。然后我们开始说,好的,重要的是要确保我们作为个人和社会拥有正确的经验来实现它,并进行相互关联的网络中的讨论,而不仅仅是公司与政府,对吧,而是在——
围绕员工,媒体、大学的部分作用。我认为这是关键的事情。所以当,你知道......
我被要求来做这个演讲。这就是我愿意做的原因,因为我认为我们需要就此进行广泛的讨论。从某种意义上说,这完全是通过对话进行的。但我实际上——我想说的另一件事是,媒体很容易经常将公司描述为仅仅是这些——
你知道,反社会利润机器。然而,当你观察许多公司时,它们并非只以这种方式运作。它们也以这种方式运作,但并非仅仅如此。部分原因是那些处于权力和权威职位的人,这些公司有很多这样的人,回家与他们的家人、朋友和社区相处
并想解释为什么他们正在做的事情是英雄行为,对吧?这就是我们如何进入这个过程的原因,也是为什么讨论如此重要的原因,也是为什么在超级能动性论点中,我们必须把它掌握在人们手中,人们必须玩弄它。然后这将指导我们的直觉并指导我们的对话。
好的,我再问一个问题,因为后面有人真的很想问一个问题,我必须给他麦克风。是的,是的,你。干得好。
非常感谢。我的名字是凯撒,我是Lobby的联合创始人,我们是室友寻找应用。我想问你一个关于人工智能监管的问题。我想问的是,通过监管人工智能而不追求某些危险领域的人工智能,这是否真的为那些没有那么重视道德的参与者提供了机会,让他们以那些
方式追求人工智能。我还想问另一个问题,如果他们这样做,我们是否也应该以这种方式追求它,以此作为一种威慑?这与核武器的情况相同,当两个或多个国家发展核武器时,实际上阻止了国家使用核武器。
所以我认为重要的是要获得——我认为,如果你推迟部署数百万和数十亿人使用的人工智能事物,一旦他们开始使用它们,这将围绕它创造一个引力井。这就是速度的原因之一。所以我认为这些事情很重要。现在,我一直是更谨慎地发布——
什么是实际上技术上开放权重的模型的倡导者?人们称之为开源,因为开源,我在Mozilla董事会工作了11年,我们已经从LinkedIn等开源了许多项目,等等,等等,我认为非常好。这增加了许多良好的对话和安全性。开放权重,对吧?
并不具备所有这些好处。它们确实赋予了初创公司创始人以及学术界人士权力,但它们也赋予了罪犯、恐怖分子和流氓国家权力。你必须考虑开放权重模型
在这个特定模型上,这种平等赋权是好事吗?现在,一部分,这回到了你的问题,那就是将会有许多参与者,不仅仅是中国,还有其他参与者将提供开放权重模型。因此,你有了这种竞争条件,你试图
以正确的方式定向它,但你也必须在某种程度上填补空白。这就是你必须达到的平衡。但你必须用某种最佳判断风险评估来做到这一点。这并不意味着,例如,即使有人可能在一个开放权重模型中发布一个用于生物恐怖主义的好模型,我们也应该首先到达那里,因为这不是我们试图赋予权力的东西,对吧?所以这就像这就是为什么它有这种非常详细的答案的原因。
谢谢。所以最后两件快速的事情。一个是安全部门要求我们完成时,我们将在几分钟内完成,如果你们能坐在座位上直到里德离开。我和他一起走,但这更多的是他而不是我。没有人关心我。这将是很棒的。我关心你。谢谢。第二,我只想说,作为一种感谢的方式,你知道,我喜欢的一件事。
这总是让我对学院印象深刻的是,你在很多课堂和教学中获得的态度从冷漠的犬儒主义到愤怒以及事情有多糟糕。所以,让某人进来提供如此精彩、面向未来、充满希望的愿景,这确实令人鼓舞。为此,我希望代表大家,让我们向里德表示感谢,感谢他抽出时间。谢谢。
Contributor(s): Reid Hoffman | 人工智能不仅是一项具有时代意义的技术,也是一项通用技术——它具有改变全球社会和经济的巨大潜力。我们应该如何利用人工智能来更好地理解世界,并对其进行组织、发展和提升?</context> <raw_text>0 感谢您的收听。您可以在您最喜爱的播客应用程序上订阅LSE Events播客,并通过留下评论来帮助其他听众发现我们。访问lse.ac.uk/events以了解接下来有什么活动。我们希望您很快能加入我们参加另一个LSE Events活动。