如果有一家 AI 公司在主流语言中引起了轰动,那就是 OpenAI,ChatGPT 的幕后公司。前董事会成员兼 AI 政策专家 Helen Toner 加入 Bilawal 的讨论,讨论了负责制造最新技术的人与在政府层面制定政策的人之间现有的知识差距和利益冲突。有关 TED AI Show 的文字记录,请访问 go.ted.com/TTAIS-transcripts</context> <raw_text>0 嘿,Belovel 在这里。这一集有点不同。今天,我采访了 Helen Toner,一位研究 AI 监管的研究人员。她也是 OpenAI 的前董事会成员。
在我与 Helen 的采访中,她首次透露了去年年底 OpenAI 首席执行官 Sam Altman 被解雇的真实情况。她对他提出了一些相当严重的批评。我们已经联系 Sam 征求意见,如果他回复,我们将在剧集结尾处添加更新。但首先,让我们开始节目吧。我是 Bilal Velsadu,这是 TED AI Show,我们将在这里弄清楚如何在 AI 改变一切的世界中生活和蓬勃发展。
想要一个具有无与伦比的强大功能、速度和
和控制力的网站?试试 Bluehost Cloud,这是 Bluehost 的新型网络托管计划。由 WordPress 专家为 WordPress 创建者打造。凭借 100% 的正常运行时间、令人难以置信的加载时间和全天候 WordPress 优先支持,您的网站将以闪电般的速度实现全球覆盖。借助 Bluehost Cloud,无论您的网站流量有多大,都能轻松应对流量激增。此外,您还可以自动获得每日备份和世界一流的安全保障。立即访问 bluehost.com 开始使用。
OpenAI 的传奇故事仍在继续,所以让我们快速了解一下。如果您错过了,在 2023 年 11 月的一个星期五,OpenAI 的董事会解雇了 Sam Altman。这一罢免事件在周末成为头条新闻,董事会表示他一直没有“始终如一地坦诚沟通”。第二天星期一,微软宣布他们已聘请 Sam 领导其 AI 部门。许多 OpenAI 员工都支持 Sam,并威胁要加入他。
与此同时,OpenAI 宣布了一位临时首席执行官。然后一天后,剧情反转,Sam 被重新聘用回 OpenAI。几名董事会成员被撤职或辞职并被替换。从那以后,一直发生着持续的余波。在 2024 年 5 月 15 日,也就是录制本集节目前一周,OpenAI 的首席科学家 Ilya Sutskever 正式辞职。
Ilya 不仅是解雇 Sam 的董事会成员,他还是超级对齐团队的成员,该团队专注于减轻 AI 的长期风险。随着另一位高管 Jan Leike 的离职,许多最初在领导职位上关注安全的员工要么离开了 OpenAI,要么转到了其他团队。那么,这里发生了什么?好吧,OpenAI 于 2015 年作为一家非营利组织成立。
自称为人工智能研究公司。他们只有一个使命,那就是为了人类的福祉创造 AI。他们希望负责任地对待 AI,近距离研究风险,并找出如何将风险降至最低的方法。这将是一家向我们展示正确使用 AI 的公司。快进到 2023 年 11 月 17 日,Sam 被解雇的那一天,OpenAI 看起来有点不同了。
他们发布了 DALL-E,而 ChatGPT 正在席卷全球。凭借微软的大量投资,OpenAI 现在似乎正与谷歌展开技术军备竞赛。ChatGPT 的发布促使谷歌争先恐后地发布了自己的聊天机器人 Bard。随着时间的推移,OpenAI 成为封闭式 AI。从 2020 年发布 GPT-3 开始,OpenAI 停止共享其代码。
我并不是说这是一个错误。出于某些原因,需要将代码保密。但 OpenAI 却发生了变化,从一个具有利他主义目标的注重使命的非营利组织转变为一个以惊人的速度发布新产品的普通科技公司。这一轨迹向您展示了经济激励措施的强大之处。现在 AI 领域有很多钱可赚。但利润也不应该是驱动决策的唯一因素。
通用人工智能 (AGI) 具有极具破坏性的潜力。这就是 Helen Toner 的用武之地。在 OpenAI 解雇和重新聘用 Sam Altman 不到两周后,Helen Toner 辞去了董事会职务。她是投票解雇他的董事会成员之一。当时,她不能说太多。内部调查仍在进行中,她被建议保持沉默。
哦,天哪,她为此受到了很多批评。看看新闻报道和推文,我感觉她是一位阻碍进步的技术悲观主义者,或者是一位利用安全政策作为武器的疯狂权力追求者。但后来我在今年的 TED 大会上遇到了 Helen,并听取了她讲述的故事。这让我对治理和监管之间的区别进行了大量思考。
对我来说,OpenAI 的传奇故事完全是关于 AI 董事会治理和一些非常聪明的人之间的激励机制错位。它还向我们展示了为什么不能总是指望科技公司自我管理,这就是为什么我们需要外部规则和法规的原因。这是一个平衡。Helen 已经思考和撰写 AI 政策大约七年了。
她是乔治城大学安全与新兴技术中心 (CSET) 的战略总监,在那里她与华盛顿特区的政策制定者一起处理各种 AI 问题。欢迎来到节目。嘿,很高兴来到这里。Helen,几周前在温哥华的 TED 大会上,我简要了解了去年 OpenAI 发生的事情。我想知道,你能详细地告诉我们吗?作为对背景的快速回顾,OpenAI 的董事会不是一个普通的董事会。它不是一家普通的公司。
该董事会是一个非营利性董事会,其明确的目的是确保公司的公益使命优先于利润、投资者利益和其他事项。但多年来,Sam 通过隐瞒信息、歪曲公司发生的事情,甚至在某些情况下直接向董事会撒谎,使得董事会很难真正做到这一点。
此时,每个人都会说:“比如什么?给我举几个例子。”我不能分享所有例子,但为了说明我所说的那种事情,例如,2022 年 11 月 ChatGPT 发布时,董事会事先没有被告知此事。我们是在推特上得知 ChatGPT 的。Sam 没有告知董事会他拥有 OpenAI 启动基金,尽管他不断声称自己是一名与公司没有经济利益关系的独立董事会成员。
他多次向我们提供有关公司确实实施的少量正式安全流程的不准确信息,这意味着董事会基本上无法知道这些安全流程运行得如何,或者需要进行哪些更改。然后,你知道,我可以分享的最后一个例子是因为它已被广泛报道,这与我撰写的一篇论文有关,这篇论文我认为在媒体上被过度解读了。
对于没有关注媒体报道的听众,Helen 去年秋天与人合著了一篇研究论文,供政策制定者参考。我不会详细介绍,但你需要知道的是,Sam Altman 对此并不满意。Helen 的论文似乎批评了 OpenAI,并对他们的竞争对手 Anthropic 更加正面评价。它还在联邦贸易委员会调查 OpenAI 用于构建其生成式 AI 产品的数据时发布。
从本质上讲,OpenAI 同时面临着巨大的压力和审查。这在 11 月发生的事情中所起的作用很简单。这与这篇论文的内容无关。问题是,论文发表后,Sam 开始向其他董事会成员撒谎,试图让我离开董事会。所以这是另一个例子,它真的损害了我们信任他的能力。实际上,这只是发生在去年 10 月下旬,当时我们已经在认真讨论是否需要解雇他。
所以,你知道,还有更多个别例子。对于任何个案,Sam 总是能想出某种听起来无害的解释,说明为什么它不是什么大不了的事,或者被误解了,等等。但是
最终结果是,经过多年的这种事情之后,我们四个解雇他的人都得出结论,我们根本不相信 Sam 告诉我们的事情。对于一个董事会来说,这是一个完全无法运作的地方,尤其是一个应该对公司进行独立监督的董事会,而不仅仅是,你知道,帮助首席执行官筹集更多资金。
你知道,不相信首席执行官的话,他是你与公司的主要沟通渠道,是你了解公司情况的主要信息来源。这完全、完全不可能。所以这就是去年秋天事态的背景。我们一直在董事会层面尽最大努力建立更好的结构、流程等等,以试图改善我们在董事会层面一直遇到的这些问题。但是,你
主要是在去年 10 月,我们与这两位高管进行了一系列对话,他们突然开始告诉我们他们自己与 SAM 的经历,他们之前觉得不舒服,无法分享,但告诉我们他们如何
他们不相信他创造的这种有毒氛围。他们使用了“精神虐待”这个词,告诉我们他们认为他不适合领导公司走向 AGI,告诉我们他们不相信他能或会改变,没有必要给他反馈,没有必要试图解决这些问题。我的意思是,你知道,他们后来试图淡化他们告诉我们的内容,但这些并不是
随便聊聊。他们非常认真,以至于他们实际上向我们发送了屏幕截图和一些他们告诉我们的例子,说明他在不同情况下撒谎和操纵。所以,你知道,这是一件大事。这是很多事情。我们在几周内非常密集地讨论了所有这些事情。我
最终得出结论,对于 OpenAI 的使命和 OpenAI 作为一个组织来说,最好的办法是换一位首席执行官。而且,你知道,一旦我们得出这个结论,我们就非常清楚,一旦 Sam 稍微感觉到我们可能会做一些违背他的事情,他就会,你知道,竭尽全力破坏董事会,阻止我们,你知道,甚至达到解雇他的地步。所以,
我们对告诉谁非常小心,非常谨慎,基本上事先几乎没有人知道,除了显然是我们的法律团队。
所以这就是我们走到 11 月 17 日的原因。感谢你分享这些。现在,Sam 最终被恢复为首席执行官,大多数员工都支持他的回归。那里到底发生了什么?为什么会有这么大的压力要让他回来?是的,这显然是房间里的大象。不幸的是,我认为对此有很多错误报道。我认为有三个主要因素有助于理解这里发生的事情。首先是
很早就开始,这种情况被描绘给公司内部人员的方式是,你有两种选择。要么 Sam 立即回来,没有任何责任,你知道,完全由他选择的新董事会,要么公司会被摧毁。
而且,你知道,这些实际上并不是唯一的两种选择。我们最终达成的结果既不是这两种选择中的任何一种。但我明白为什么,你知道,不想让公司被摧毁让很多人屈服,无论是因为他们在某些情况下即将从即将到来的要约收购中赚很多钱,还是因为他们热爱他们的团队。他们不想丢掉工作。他们关心他们正在做的工作。当然,很多人也不希望公司分崩离析,你知道,包括我们。是的。
我认为第二点非常重要,而且报道不足的是……
人们多么害怕反对 Sam。他们经历过他报复他人,报复那些过去批评过他的人。他们真的害怕会发生什么。因此,当一些员工开始说,你知道,等等,我不希望公司分崩离析。让我们把 Sam 接回来。对于那些有过糟糕经历的人来说,很难去战斗
说出来,因为害怕,你知道,如果 Sam 最终掌权,你知道,那会让他们的生活变得悲惨。我想说的最后一件事是,这对 Sam 来说并不是一个新问题。如果你看看 11 月以来的一些报道,你知道,
据报道,他实际上被解雇了他之前在 Y Combinator 的工作,当时这件事被掩盖了。然后,你知道,他之前的工作,这是他在硅谷的唯一其他工作,他的创业公司 Loopt。显然,那里的管理团队两次找到董事会,要求董事会解雇他,他们称之为,你知道,“欺骗性和混乱的行为”。如果你真的看看他的履历,他并没有什么。
光辉的推荐信。这个问题并不仅仅是董事会成员的个性问题,尽管他很想这样描绘。
所以我不得不问你这个问题,但这实际上与我们今天要讨论的内容有关。OpenAI 是一个试图做好事的公司的例子,但现在它已经转向了营利模式。它正在与所有这些在进步之后出现的伦理问题一起,争先恐后地走到 AI 游戏的前列。你可以说,OpenAI 的传奇故事表明,试图做好事和自我监管是不够的。
所以让我们谈谈为什么我们需要监管。很好。让我们开始吧。在我看来,AI 从似乎遥不可及的科幻事物变成了几乎无处不在的事物,监管机构突然试图赶上。但我认为,对某些人来说,为什么我们需要监管可能并不明显。对于普通人来说,这似乎是,哦,我们只是拥有这些很酷的新工具,比如 DALL-E 和 ChatGPT,它们可以做一些令人惊奇的事情。
我们具体担心什么?对于非常基本的科技形式来说,这非常基本。例如,如果人们用它来决定谁获得贷款,决定谁获得假释,决定谁可以买房。就像你需要这项技术运作良好一样。如果这项技术存在歧视性,而 AI 通常就是这样,事实证明,你需要确保人们有追索权。他们可以回去说,嘿,为什么做出这个决定?
如果我们谈论的是 AI 用于军事,那又是另一码事了。我不知道我们是否会说对此进行监管,但肯定需要制定指导方针、规则和流程。
然后展望未来,考虑更先进的 AI 系统,我认为如果 AI 变得越来越复杂,我们很可能会看到各种潜在的危害。让每个在父母地下室的小脚本小子都拥有,你知道,一个破解的国家安全局小组的黑客能力。这可是个问题。我认为让监管机构难以思考 AI 的一件事是,它包含很多不同的东西,很多东西不需要监管。例如,我不知道
Spotify 如何决定如何制作你的播放列表,他们为此使用的 AI。我喜欢 Spotify 为我选择任何他们想要的歌曲。如果他们选错了,你知道,谁在乎呢?但对于许多其他用例,你至少希望在其周围设置一些基本的常识性防护措施。我希望至少有一些基本的常识性防护措施。我想谈谈我们可能需要担心的几个具体例子,不是在海外战场,而是在我们日常生活中。
让我们谈谈监控。AI 在感知方面变得非常出色,基本上可以理解图像、视频和音频的内容。我们在公共和私人场所安装了越来越多的监控摄像头。现在,公司正在将 AI 融入到这个舰队中,基本上是在为这些几乎无处不在的哑传感器注入智能。纽约市的麦迪逊广场花园就是一个例子。他们一直在使用面部识别技术来阻止参与针对
针对其母公司 MSG Entertainment 的诉讼的律师参加其场地的活动。这种有争议的做法显然引发了对隐私、正当程序和滥用这项技术的担忧。我们可以谈谈为什么这有问题吗?是的,我的意思是,我认为这是技术史上经常出现的事情,即你有一些人
你知道,社会中的一些现有事物,然后技术使它变得更快、更便宜、更广泛地可用。就像监控一样,它从像,哦,过去你的邻居可以看到你做了坏事,然后去告诉警察。你知道,这是升级到,好吧,有一个摄像头,一个闭路电视摄像头,警察可以随时回去检查。然后又升级到,哦,实际上它一直在运行,上面有一个 AI 面部识别检测器,也许,你知道,也许将来还有一个 AI 活动检测器,它也在标记,你知道,这看起来很可疑。我,
在某些方面,没有发生什么质的变化。就像你可以被看到做了某事一样。但我认为你确实也需要处理这样一个事实,如果它更加普遍,更便宜,那么情况就不同了。我的意思是,我认为对于监控,人们会立即想到执法用例,对吧?
我认为弄清楚在实现某种执法目标和能够抓住罪犯以及防止坏事发生之间正确的权衡非常重要,同时也要认识到,你知道,如果这项技术被过度使用,你可能会遇到巨大的问题。例如,你知道,面部识别在不同的群体中效果更好或更差。因此,如果警察像他们在该国某些地区那样,仅仅根据面部识别匹配和没有其他证据就逮捕人们……
有一个关于一名怀孕八个月的妇女的故事,她在完全没有做错任何事情的情况下被关进监狱,只因为,你知道,一个糟糕的面部识别匹配。所以我个人并不赞成,你知道,这需要被完全禁止,任何人都不能以任何方式将其用于任何目的。但我认为你确实需要看看人们是如何使用它的?出错时会发生什么?人们有什么追索权?他们有什么正当程序?
然后,当涉及到私人使用时,我认为我们可能应该更加,你知道,严格一些。例如,我不知道,这似乎非常明显地违反了,我不知道,言论自由,麦迪逊广场花园这样的地方将他们自己的律师赶出去的行动自由。我不知道。我不是律师,所以我不知道这方面的法律现状是什么。但我认为那里的公民自由和隐私问题非常清楚。
我认为现有技术集被注入更先进的能力,而普通民众对此一无所知,这肯定是一种趋势。最近一个让我震惊的例子是一个咖啡店的监控视频在网上疯传。
它显示了咖啡馆里挤满了人以及咖啡师的景象。基本上,在顾客的头顶上方,比如他们在咖啡馆里待了多长时间。然后在咖啡师上方是,他们做了多少饮料?然后,你知道,这意味着什么?表面上,企业可以跟踪谁在他们的场所停留了多长时间,了解很多关于客户行为的信息,而无需客户的知情或同意。然后第二,企业可以跟踪员工的工作效率,并可能解雇,比如说,效率较低的咖啡师,对吧?
让我们谈谈这里的问题和风险。这怎么可能是合法的?我的意思是,简而言之,这反复出现,如果你在做 AI 政策,美国没有联邦隐私法。关于公司如何使用数据,没有任何成文的规定。美国在保护哪些类型的个人数据以及如何保护方面,其保护措施之少是相当独特的。
制定法律的努力一次又一次地失败了。但现在有一种突然出现的秘密新努力,人们认为它实际上可能有机会。所以谁知道呢?也许这个问题即将得到解决。但目前,这绝对是一个很大的漏洞。我认为第一步是让人们意识到这一点,对吧?因为人们已经,正如你所说,听说过在线跟踪。
但是,在现实中的物理空间中拥有相同的分析集,感觉就像卢比孔河已经被跨越了,而我们甚至不知道当我们走进任何一家杂货店时会发生什么。我的意思是,是的。同样,这与我们正在谈论的数据规模和普遍性有关。因为同样,这可能是你最喜欢的咖啡师知道你总是来,然后在你的笔记本电脑上坐几个小时,因为他们已经看到你连续几周这样做了。
这与这些数据被系统地收集,然后出售给全国各地的各种数据供应商,并用于各种其他事情或境外的事情,这是非常不同的。所以,同样,我认为我们根据我们的人际互动有这些直觉,当涉及到我们在这里谈论的数据规模时,这些直觉真的会崩溃。
节目的支持来自 LinkedIn。LinkedIn 广告允许您建立正确的关系,推动成果,并在尊重环境中接触您的客户。他们没有受到轰炸。这是非常有针对性的。您将直接接触并与
拥有 10 亿会员、1.8 亿高级管理人员,似乎每个人都在 LinkedIn 上,以及 1000 万 C 级高管,您将能够利用专门为 B2B 打造的定位和衡量工具来推动成果。在技术领域,LinkedIn 的广告支出回报率是
是其他社交媒体平台的两到五倍。您将与尊重您所在 B2B 行业的合作伙伴合作。79% 的 B2B 内容制作人员表示,LinkedIn 为付费媒体带来了最佳效果。立即开始将您的 B2B 受众转化为高质量的潜在客户。我们甚至会在您的下一次活动中为您提供 100 美元的信用额度。访问 linkedin.com/TEDaudio 领取您的信用额度。网址是 linkedin.com/TEDaudio。适用条款和条件。LinkedIn,成为必不可少的地方。
我还想谈谈诈骗。人们正受到电话诈骗的攻击。他们接到来自亲人的电话。听起来他们的家人被绑架并被扣为人质。实际上,一些不法分子只是使用现成的 AI 来搜索这些人的社交媒体信息以获取他们的声音。然后,骗子可以使用它来进行这些非常可信的骗局电话。
人们听起来好像很痛苦,被关押在某个地方。所以我们现在已经报道了这个骗局,但未来会发生什么?什么让你彻夜难眠?我的意思是,我认为显而易见的下一步也包括视频。我的意思是,如果你还没有去和,你知道,你的父母、祖父母,你生活中任何不那么精通技术的人谈谈,告诉他们,你需要注意这一点,你应该这样做。我经常谈论
以及我们可能需要什么样的政府参与或监管 AI。我认为很多事情我们都可以适应,我们不一定需要新的规则。所以我认为,你知道,我们经历了很多不同的网络诈骗浪潮,我认为这是最新的一种,这对那些成为目标的人来说真的很糟糕。但我同时也预计,你知道,五年后,人们会对此非常熟悉,仍然容易受到攻击的人数会非常少。
所以,我认为主要的事情是,是的,要非常怀疑任何声音。绝对不要将语音识别用于银行账户或类似的事情。我很确定有些银行会提供这项服务。是的。
你知道,放弃它。绝对使用更安全的东西。是的,也要注意视频诈骗,以及那些在视频通话中看起来很真实的人。我认为就在前几天,有一个案例是一个人在整个电话会议上,那里有一群不同的 AI 生成的人都在通话,而他只是唯一一个真实的人。被骗走了一大笔钱。是的。
嗯,所以这即将到来。完全正确。基于内容的身份验证似乎已经走到尽头了。绝对的。总是值得检查一下我们开始的基线是什么。我的意思是,例如,很多事情,嗯,很多事情已经是公开的了,而且它们似乎没有被滥用。所以,我认为,嗯,我认为很多人,人们的地址是公开列出的,你知道,我们过去有文字白页,你可以查找某人的地址。嗯,这主要没有导致,你知道,可怕的事情发生。或者,你知道,我甚至想到了愚蠢的例子,比如
我认为送货司机或你去餐馆取你订购的食物时,它就在那里,这真的很好。
好的,那么让我们谈谈我们实际上能做什么。规范像咖啡馆和餐馆这样的企业是一回事,而控制所有可能滥用这项技术的坏人又是另一回事。法律法规真的能保护我们吗?是的,它们绝对可以。我的意思是,它们已经这样做了。再说一次,人工智能涵盖如此之多不同的方面,以至于没有一套统一的人工智能法规。有很多现有的法律法规已经适用于人工智能。因此,人们对人工智能有很多担忧,例如算法造成的混乱。
歧视是有充分理由的。但在很多情况下,已经有法律规定禁止基于种族、性别、性取向或其他任何因素进行歧视。因此,在这些情况下,你甚至不需要制定新的法律或法规。你只需要确保相关的机构拥有所需的员工配置。也许他们需要……也许他们需要调整一下他们的权限,例如他们被允许调查谁,或者他们被允许惩罚谁,诸如此类的事情。
对于自动驾驶汽车之类的东西,已经有相应的规定了。交通部正在处理这个问题。由他们来处理这件事是合情合理的。对于人工智能和银行业务,有很多银行监管机构制定了很多规则。所以我认为有很多地方,人工智能实际上并不是根本性的新事物,我们现有的系统在处理这些问题方面做得还不错,但它们可能需要,再次强调,更多的人员或对其可以做的事情进行细微的调整。我认为有一些不同的方面,有一些
新的挑战正在人工智能的前沿出现,你拥有能够真正做到计算机以前从未能够做到的事情的系统,以及是否应该制定规则来确保这些系统正在以负责任的方式开发和部署。
我特别好奇你是否遇到过一些非常巧妙的东西,或者类似于良好监管模式的东西。我认为这主要还是一个正在进行中的工作。所以我不知道我是否见过任何我认为真正完美的东西。我认为我们现在面临的人工智能挑战很多是
与我们对这项技术能够做什么、五年后能够做什么存在多少不确定性有关。专家们对这些问题存在巨大分歧,这使得制定政策非常困难。因此,我最感兴趣的许多政策都是为了阐明这些问题,让我们更好地了解这项技术所处的位置。因此,一些例子,例如拜登总统去年十月发布了这项重要的行政命令,其中包含各种各样的内容。什么
一个例子是,要求训练特别先进系统的公司必须向政府报告有关这些系统的一些信息。因此,这是一个要求,你并没有说你不能构建该模型,不能训练该模型。你并没有说政府必须批准某些东西。你实际上只是在共享信息,并创造更多意识和更多应对能力,因为技术会随着时间的推移而变化,这对政府来说是一个巨大的挑战,因为它需要跟上这种快速发展的技术模型。
在资助衡量和评估人工智能的科学方面也取得了很多进展。
弄清楚人工智能发生了什么的一个巨大挑战是,我们实际上非常不擅长衡量这个人工智能系统有多好?这些人工智能系统之间如何比较?其中一个是否更“聪明”?所以我认为在过去一两年中,人们非常关注在政府内部资助和建立更好的能力。我认为这是非常有成效的。好的。所以政策制定者如果以前没有意识到人工智能,现在肯定意识到了。而且很多人都在担心它。
他们想确保它是安全的,对吧?但这并不一定容易做到。你已经谈到了这一点,即规范人工智能是多么困难。那么,为什么这么难呢?是什么让它如此困难?是的,我认为至少有三件事让它变得非常困难。一件事是人工智能涵盖如此之多不同的方面,就像我们讨论过的那样。它跨越多个部门。它有如此之多的不同用例。很难掌握它是什么,它能做什么,它会产生什么影响。
第二件事是它是一个不断变化的目标。这项技术现在能够做到的事情与两年前甚至五年前、十年前不同。而且,你知道,政策制定者不擅长敏捷的政策制定。他们不像软件开发人员。然后第三件事是没有人能够就它们如何变化或未来如何变化达成一致。如果你问五个专家,
你知道,这项技术将走向何方,你会得到五个完全不同的答案,通常是五个非常自信、完全不同的答案。所以……
这也会让政策制定者非常困难,因为他们需要获得科学共识,然后以此为基础继续前进。所以我认为也许这种第三个因素是我认为制定人工智能政策的最大挑战,那就是对于政策制定者来说,他们很难判断应该听谁的话,应该担心什么问题,以及这将如何随着时间的推移而变化?
说到你应该听谁的话,显然,你知道,这个领域的非常大型公司有一种动机,而且关于监管被俘获有很多说法。当你要求透明度时,为什么公司会窥探他们正在构建的东西的内部情况?他们只是说这是专有的。另一方面,你知道,他们可能会——
这些公司可能希望建立一个对他们有利的政策和制度框架,并防止未来的任何竞争。你如何让这些强大的公司参与并友好相处?是的,对于政策制定者来说,弄清楚如何与这些公司互动绝对非常具有挑战性,再次强调,部分原因是因为他们缺乏专业知识和时间。
深入挖掘事情本身。一个典型的参议院工作人员可能会负责技术问题、贸易问题、退伍军人事务、农业和教育,你知道,这就是他们的工作范围。所以他们正在争先恐后地工作,他们必须这样做,他们需要外部帮助。
所以我认为这些公司参与并发挥作用是很自然的。我还认为,如果政策制定者不知道这项技术是如何运作的,并且没有与他们正在监管的公司讨论将会发生什么,那么他们有很多方法可以把事情搞砸。当然,挑战在于如何将这一点与外部声音相平衡,外部声音会指出公司实际上是在为自己谋利的那些地方?
所以我认为,这就是为什么让民间社会也参与这些对话非常重要的原因。当然,我们在我工作的组织CSET中所做的努力,我们是完全独立的,并且,你知道,只是为了致力于制定良好的政策。大型公司显然需要在桌边占有一席之地,但你会希望他们在桌边占有一席之地,而不是在政策制定者与之交谈和倾听的人中占99个席位中的99个。
在执法方面似乎也存在挑战,对吧?你已经有了所有这些人工智能模型。很多都是开源的。你不能把这个妖怪再放回瓶子里,你也不能在没有……的情况下开始调节这项技术的使用方式,我不知道……
进入完全1984年的状态,并在每台计算机上都进行一个流程来监控它们正在做什么。那么,我们如何处理这种既有闭源又有开源的局面呢?各种各样的方法都可以访问和构建这项技术?是的,我的意思是,我认为在完全的无政府状态和完全的1984年之间有很多中间的事情。例如,
例如,Hugging Face是一个非常流行的开源人工智能模型平台。因此,Hugging Face过去曾下架过被认为具有冒犯性或危险性等的模型。这实际上确实有效地减少了对这些模型的使用,因为Hugging Face的全部意义在于使它们更容易访问、更容易使用、更容易找到模型。
你知道,根据我们正在讨论的具体问题,有一些事情,例如,社交媒体平台可以做到。所以,如果我们谈论的是,正如你所说,儿童色情制品,或者,你知道,政治虚假信息,诸如此类的事情,也许你无法在创作时控制它。但是如果你有Facebook、Instagram等世界,你知道,正在努力,他们已经制定了如何检测这种材料、压制它、报告它等方法,你知道,
因此,你知道,你可以使用其他机制。然后,当然,特别是在图像和音频生成方面,有一些非常有趣的举措正在进行中,主要由行业牵头,围绕所谓的“内容来源”或“内容认证”,这基本上是如何知道这段内容来自哪里?你怎么知道它是真实的?这是一个发展非常迅速的空间,并且有很多有趣的事情正在发生。我认为有很多希望,不是为了完美的解决方案,我们总是会知道这是真实的还是假的?
而是为了让个人和平台更容易识别,好的,这是假的。它是由这个特定模型使用人工智能生成的,或者这是真实的。它是在这种相机上拍摄的,我们有它的加密签名。我认为我们永远不会有完美的解决方案。再说一次,我认为,社会的适应将是故事中很大的一部分。
但我确实认为有一些非常有趣的技术和政策选择可以产生影响。绝对的。即使你无法完全控制这种材料的生成,也有方法可以大幅限制它的传播。
所以,就像,我认为这减少了一些危害。是的。同时,标记合成生成的內容,许多平台已经开始这样做。这令人兴奋,因为我认为普通消费者不应该成为深度伪造检测专家。对。但如果真的可以有一个技术解决方案来解决这个问题,那就感觉更令人兴奋了。是的。
这让我想到未来。我很好奇,在你看来,这一切中反乌托邦情景和乌托邦情景是什么样的?让我们从反乌托邦情景开始。在监管不足或监管不善的情况下,世界是什么样的?为我们描绘一幅图景。
有很多可能性。我的意思是,我认为有些世界与现在并没有太大区别,你只是有自动化系统在做很多事情,在社会中扮演着很多重要的角色,在某些情况下做得不好,而人们没有能力去质疑这些决定。显然,围绕着
人工智能的生存风险等等,等等,有很多讨论。卡玛拉·哈里斯发表了一整篇演讲,内容是,你知道,如果有人,我忘记了具体的例子,但如果有人因为算法问题而失去了医疗保险的资格,这对于那个,你知道,老年人来说是不是生存风险?你知道,已经有很多人正在以非常严重的方式直接受到算法系统和人工智能的影响。
甚至,你知道,我们在过去几个月看到的关于人工智能如何用于战争的报道,例如,无人机追逐一名俄罗斯士兵绕过坦克然后向他射击的视频。就像……
我认为我们还没有完全进入反乌托邦时代,但已经有足够多的事情值得担忧了。我认为我非常担心的事情,或者直觉上对我来说似乎是一种特别有可能发生的方式,那就是我所认为的《机器人瓦力》式的未来。我不知道你是否记得那部电影。哦,当然记得。那个小机器人。而我正在谈论的部分不是,比如,垃圾地球等等。我正在谈论的部分是电影中的人们。他们只是坐在他们的软……
我认为我担心的是,我认为确实存在一个非常自然的梯度,朝着人们当下想要的东西发展,并且会,你知道,会选择当下想要的东西。我认为这是一个非常自然的梯度。
这与他们,你知道,真正会感到充实的东西或会建立有意义的生活的东西不同。我认为存在非常自然的商业激励措施来构建人们表面上想要的东西,但最终却会得到一个非常无意义、肤浅、表面的世界。并且可能是一个大多数具有后果的决定都由对意义没有概念的机器做出的世界。
它意味着过一种有意义的生活。而且,你知道,因为我们如何将它编程到它们中?因为我们没有,我们,我们很难用手指指出它本身。所以我认为这些未来并不是说有什么,你知道,戏剧性的、巨大的、呃、事件,而只是我们逐渐地将越来越多的对未来的控制权交给越来越复杂但实际上没有任何意义、美丽、快乐、充实或,你知道,繁荣或任何其他概念的计算机。嗯,
我希望我们不会走上这些道路,但这绝对有可能发生。它们可以迎合我们的希望、愿望、焦虑、担忧,所有这些。只是不断地给我们提供垃圾食品,无论是营养方面还是仅仅是视听内容方面。这当然会以糟糕的方式结束。让我们谈谈它的反面,即乌托邦情景。在一个创新和监管完美平衡的世界里,社会蓬勃发展,世界是什么样的?
我的意思是,我认为一个非常基本的起点是,我们能否解决世界上的一些重大问题?而且我认为人工智能可以帮助解决这些问题。那么,我们能否拥有一个没有气候变化的世界,一个拥有更丰富、更便宜的能源的世界,因此更多的人可以获得更多能源,在那里,你知道,我们有更好的农业。因此,人们可以更容易获得食物。除此之外,你知道,我更感兴趣的是设定,你知道,
我们的孩子、孙子、曾孙子从那里开始自己决定他们想要什么样的未来,而不是对它应该走向何方有某种特定的愿景。但我绝对认为人工智能有可能真正帮助解决我们作为文明所面临的一些最大问题。很难说出这句话而不显得有些夸大其词,你知道,陈词滥调,但是……
但我认为这是真的。所以也许为了结束,就像,我们能做什么?你提到了一些关于意识到合成生成内容的例子。当我们遇到、使用甚至讨论人工智能时,我们个人能做什么?有什么建议吗?我认为我最大的建议
这里的建议就是不要被这项技术吓倒,也不要被技术专家吓倒。就像这真的是一项我们不知道自己在做什么的技术。世界上最好的专家也不理解它是如何运作的。所以我认为,你知道,如果你觉得它很有趣,那就感兴趣吧,如果你想到一些有趣的使用方法,那就用吧。如果你担心它,那就尽管担心吧。就像,你知道,我认为主要的事情就是感觉你有权对技术发表自己的看法。
你希望技术发生什么,而且,没有监管机构,没有,你知道,首席执行官会完全了解它影响全球数百万甚至数十亿人的所有不同方式。所以有点,我不知道,相信你自己的经验,并自己探索,看看你认为是什么,我认为这是我将要提出的主要、主要的建议。很高兴你来到这里,海伦。感谢你来到节目。非常感谢。这很有趣。
所以也许我接受了在新闻和X上播放的故事,但我进入这次采访时,预计海伦·托纳会更像是一位人工智能政策极大主义者。你知道,法律越多越好,这根本就不是我发现她是一个什么样的人。海伦认为规则、技术乐观主义和社会顺其自然、适应变化的平衡是有其位置的。
政策并不一定意味着强硬和阻碍创新。它可以仅仅是对那些对社会非常不利的有害经济激励措施的一种制衡。我认为你会同意的。但是你如何制定好的规则呢?很多科技界人士会说,你什么也不懂。他们最了解这项技术,了解其中的陷阱,而不是立法者。海伦谈到了普通的华盛顿工作人员,他们不是专家,甚至没有时间成为专家。
然而,制定规范来管理人工智能以造福我们所有人却落在了他们的肩上。技术专家拥有专业知识,但他们也有利润动机。他们的利益并不总是与我们其他人相同。你知道,在科技界,你会听到很多关于监管不好的说法,不要与监管机构接触。我理解这种不信任。
有时监管机构确实不知道自己在做什么。印度最近发布了一项咨询意见,称在印度部署的每个AI模型都必须首先获得监管机构的批准。完全不现实。这引起了巨大的反弹,他们此后撤回了这一决定。但是不与政府接触只会让我们制定出更多糟糕的法律。所以我们必须开始对话,即使只是为了避免《机器人瓦力》式的反乌托邦未来。
好的,在我们今天结束之前,我想再次将你的注意力转向我们节目的开头。我告诉你,我们将联系萨姆·阿尔特曼征求意见。所以,几个小时前,我们与萨姆分享了这段录音的文字记录,并邀请他回复。
我们刚刚收到了OpenAI董事会主席布雷特·泰勒的回复,以下是完整的声明。引用:
审查得出结论,先前董事会的决定并非基于对产品安全或安全性、发展速度、OpenAI的财务状况或其对投资者、客户或业务伙伴的声明的担忧。此外,超过95%的员工,包括高级领导,都要求恢复萨姆的首席执行官职位,并要求先前董事会辞职。我们的重点仍然是向前发展,并追求OpenAI的使命,即确保AGI造福全人类。”
如果有什么进展,我们会随时通知你。TED人工智能秀是TED音频集的一部分,由TED与Cosmic Standard联合制作。我们的制作人是埃拉·费特和萨拉·麦克拉。我们的编辑是本·本盛和阿莱汉德拉·萨拉萨尔。我们的节目主持人是伊万娜·塔克,我们的副制作人是本·蒙托亚。我们的工程师是亚洲·皮拉尔·辛普森。我们的技术总监是雅各布·温尼克,我们的执行制作人是伊丽莎·史密斯。
我们的事实核查员是茱莉亚·迪克森和丹·科拉奇。我是你的主持人,比拉瓦尔·西杜。我们下次再见。