上个月,一群两党参议员公布了一份人工智能政策路线图,提议拨款320亿美元用于支持人工智能研究。该计划引发了诸多疑问,即政府是否以及如何打算规范快速发展的科技行业,尤其是在版权和隐私相关的领域。在本期538政治播客中,加伦与人工智能和先进技术瓦德瓦尼中心的主任格雷戈里·艾伦讨论了人工智能监管的政治问题。了解更多关于您的广告选择的信息。访问megaphone.fm/adchoices</context> <raw_text>0 瑞安·雷诺兹在这里,我想,这是我为薄荷移动拍的第100个广告了。不,不,不,不,不,不,不,不,不。我的意思是,说实话,当我开始做这个的时候,我以为我只需要做四个这样的广告。我的意思是,每月15美元就能享受无限高级无线服务。怎么会还有人支付两到三倍的费用呢?对不起,我不应该在这里指责受害者。准备好后,请访问mintmobile.com/save。为了
仅仅因为一些不好的事情还没有发生,并不意味着一些事情不可能发生,对吧?如果在三里岛核灾难发生前一年,你说,从来没有发生过核安全灾难,这意味着我们将永远安全,对吧?你就是一个傻瓜。♪
您好,欢迎收听FiveThirtyEight政治播客。我是加伦·德鲁克。我们现在都熟悉这个场景了。国会召集科技行业巨头,就社交媒体的危害、网络中立的优点,甚至第一修正案权利和国家安全等问题对他们进行质询,但却因为他们自己对现代技术的有限理解而成为头条新闻。
立法者经常因为在应对大型科技公司方面落后而受到批评。
现在进入人工智能领域。上个月,一群两党参议员在花费近一年时间召集行业领导者、学者和民间社会成员后,发布了一份人工智能政策路线图。报告的主要内容包括呼吁每年拨款320亿美元用于支持人工智能研究。它还建议立法禁止在竞选活动中使用深度伪造技术,并通过一项联邦数据隐私法,等等。
值得注意的是,该小组没有推荐一项大型人工智能法案,而是将立法工作留给国会委员会逐项处理。
批评人士表示,这份报告过于含糊,不会促成足够迅速的行动,并且回避了版权法未来等棘手问题。参与制定路线图的立法者认为,为了保持项目的两党合作,一些含糊之处是必要的,他们也不想扼杀创新。那么,国会是否正在尽力跟上人工智能的发展,以及监管的未来会是什么样子呢?在这里
今天和我一起讨论这一切的是格雷戈里·艾伦,他是瓦德瓦尼人工智能和先进技术中心的主任,也是人工智能政策播客的主持人。格雷戈里,欢迎。嘿,非常感谢你邀请我。让我们从立法者可能考虑全面监管的广泛关注领域开始,先把路线图放在一边。有哪些事情
政府,无论是美国政府、欧盟还是其他任何政府,今天可能会考虑监管的事情。
当然。我认为就欧盟而言,这并不是在考虑是否要进行监管。他们已经通过了欧盟人工智能法案。因此,欧盟将会有关于人工智能的监管。即使在美国,人工智能也是一项通用技术。这意味着你可以在自动驾驶汽车中使用它。你可以使用人工智能驱动的算法在股市上进行金融交易。你也可以在人力资源软件和其他许多东西中使用它。
好吧,我刚才说的所有东西都已经是一个受监管的行业了,无论你是否使用人工智能,它都是受监管的。因此,如果你使用人工智能,那么这些法规仍然适用于你,并且可能还有一些独特的含义。所以问题不在于我们或欧盟是否会监管人工智能。我们将监管人工智能,事实上,我们已经在监管人工智能了。
但是现在有一种理论认为,作为一项通用技术的人工智能,不仅需要垂直行业特定的监管(就像美国政府中存在的大部分监管一样),而且还需要水平监管,即适用于许多不同行业、许多不同用例的人工智能的监管,无论是在政府还是私营部门。
而人工智能作为一种通用技术的一些用例,他们认为也许我们应该监管技术本身,而不仅仅是用例,是
涉及到一些棘手的问题。首先,我认为,也是在国会中可能拥有最大动力的一个问题,与使用人工智能生成合成媒体,或者大多数人可能已经听说过的深度伪造技术有关。深度伪造技术很有趣,因为它一直以来都有人可以打出一份备忘录,并声称这份备忘录是由从未写过或从未看过它的人写的,
现在你可以用音频做到这一点。现在你可以用视频做到这一点。通过模仿某人,你可以生成质量相当高的视频伪造品。即使
它们是可以被专家检测到的。它们可能无法被仅仅观看这些视频的普通人检测到。它们好到这个程度。因此,他们真正感兴趣的第一个领域是围绕选举干预。这是路线图中推荐的内容。现在,由艾米·克洛布查参议员领导的参议院规则委员会已经提出了多项旨在解决在选举图像中使用深度伪造技术的立法。
他们感兴趣的其他领域是一些老生常谈,例如自动驾驶汽车、隐私以及人们即使在人工智能出现之前就已经熟悉的一些其他领域。
你提到这种人工智能监管在某种程度上有所不同,因为它不是针对特定行业的,而是针对特定技术的。我们过去是否有其他类似的例子,我们说,好吧,这种类型的技术或这种商业领域是独一无二的,它需要单独进行监管?你可以指出一些看起来像这样的例子,但它们都是不完美的,对吧?
例如,核技术受到监管,但核材料的用例数量非常少。它是武器、能源和少数医疗用例。除此之外,没有人真正关心核技术。因此,即使你是在水平地监管这项技术,但这在所涵盖的市场垂直领域的数量方面实际上意味着什么,是相当适中的。
其他领域可能类似于电力。因此,我们熟悉这样一个事实,即存在与防火安全或其他类型的健康损害相关的电力法规。无论你是说电网还是说消费品安全类型的含义,这些都适用。但是,这实际上是如何实施的,通常是不同的机构做不同的事情。
好的,让我们深入探讨一下这里的冲突。关于我们应该如何处理这个问题,有很多不同的意见。事实上,其中一些意见从参议院发布的路线图、白宫的行政命令以及来自倡导团体和民间社会团体的影子报告中就可以很明显地看出,
他们说参议院的报告做得还不够。所以我想举几个例子。参议院的报告似乎真的侧重于创新,投资人工智能,确保我们在私营部门和国防部门都支持它,
它还涉及到对劳动力或透明度和隐私的影响等问题。但这些似乎是次要的。这里的主要重点似乎是欧盟做得太过火了。我们不想阻碍美国的创新。因此,我们要确保我们拥有最好的AI技术。白宫在其行政令中
行动似乎非常关注安全和保障、隐私、支持工人、确保政府负责任地使用它。你看到影子报告,它更多的是倡导团体,根据他们的优先事项列出的是种族正义和平等、移民、劳工。他们谈论气候变化、贫困。所以这有点像
更多左翼团体的许多政治担忧都可能映射到人工智能监管和政策上。在这个时刻,看起来谁会在这场辩论中获胜?是的,我认为在美国,创新界肯定在国会和白宫都拥有真正的动力。美国在前沿人工智能研究方面拥有
整体领导地位。这对美国经济来说非常有价值。这对美国社会来说非常有价值。我们在互联网技术方面处于领先地位,这对美国经济来说非常有利。因此,我认为大多数人都认为人工智能是下一个前沿领域。无论什么将成为下一个等同于iPhone的东西,就改变整个科技行业而言,我们希望它在美国制造,我们希望它由美国领导。
现在,这在所有这些关于偏见的不同问题上会归结到什么,就拿一个例子来说,招聘决策中的偏见。因此,《民权法案》于70年代创建了平等就业机会委员会,
它禁止将种族歧视作为招聘决定、解雇决定、晋升决定、降职决定或奖金决定的依据。我的意思是,它规范了所有这些结果,并指出它们不能因为种族歧视而被证明是合理的。好吧,无论你是否使用人工智能,这项法规都适用。
如果你去见法官,你说,哦,我不是种族主义者。我信任我购买的这款人工智能产品不会是种族主义的。法官根本不在乎。法律非常明确。无论歧视的来源是什么,歧视都是非法的。我认为很多现有的法律都是这样的。例如,想想关键基础设施。所以,你知道,我最近一直在谈论人工智能安全。
好吧,人工智能软件崩溃的方式……
与传统的基于规则的、if-then语句类型的计算机软件相比,这真的很奇怪和不同寻常。好吧,我们有几十年的经验,了解构建超高可靠性传统软件系统是什么样的。如果你想,你知道,使用软件,例如,让探测器登陆火星,那么你最好知道,你知道,如何确保这东西每1000万次只失败一次,对吧?
但是机器学习软件是不同的,它以不同的方式崩溃。因此,如果你考虑在核电站中使用人工智能,例如,那么你如何保证不会发生某种安全灾难或任何类型的关键基础设施问题呢?
但我的意思是,关于构成过失、构成不负责任地使用未改进技术的现有法规,无论是否使用人工智能,这些标准都适用。因此,某种程度上存在着现有的监管基础。因此,我认为这就是人们如此关注的原因之一
对所使用算法的透明度,以便你实际上可以知道招聘软件或任何东西是如何被指示的。好吧,我认为透明度是梦想,但这并不一定是一个可以实现的梦想。我的意思是,从纯粹的技术角度来说。所以你可以告诉一家公司的是,
告诉你,你知道,这个人工智能系统使用了什么数据集进行训练?你用来应用于该训练数据集的算法是什么?然后你可以说,运行一堆测试,并告诉我测试的结果是什么。
但这并不一定能给你带来我们对传统软件所期望的那种透明度,对吧?如果你想问一家银行,告诉我你使用什么标准来做出贷款决定,他们会给你看一个等式,对吧?而这个等式可能会,你知道,包含10个变量。所以我们说的是一个高中代数学生可能能够查看这个等式并理解它。
这些大型语言人工智能模型可能拥有大约1000亿个参数。因此,即使公司给你提供了一切,目前技术上可行的透明度,也就是,你知道,世界上最聪明、资源最丰富的公司可以获得的透明度,也低于目前传统软件所能达到的水平。虽然在这个领域已经有一些基本的科研进展,但这就像
在基础研究层面根本没有解决。因此,正如你所说,透明度是所有这一切的重点,但这更多的是关于测试结果类型数据的透明度。创建这个系统时使用了哪些输入?因为这是你实际上可以获得的。是的。因此,对于那些认为这是一个问题的人,而且似乎即使是参议院路线图,它也严重地倾向于等式的创新方面,
仍然谈到了可解释性和透明性。是的。我的意思是,你说这话很有趣,但我只想告诉你,例如,拜登政府会将行政命令描述为他们能够采取的,你知道,在促进安全、促进公平、防止歧视方面能够采取的最大行动。他们会说这是他们发现自己拥有合法权力所能采取的最大行动。
对。所以,你知道,你是在描述这种情况。好吧,我想,当然,国会拥有立法权,可以做总统做不到的各种事情。他们可以走得更远。是的。你知道,这就是我们的政府运作方式。因此,他们可以在要求透明度或可解释性、要求贴标签或禁止人工智能的某些用途等方面做各种事情。当然,总统做不到。但我的意思是,说到这一点。
对于那些认为可解释性和透明性在监管人工智能、理解其对社会的影响以及它们是否有害或是否有益等方面是一个真正挑战的人来说,如果你想解决这个问题,你会怎么做?
是的。所以我认为透明度是可以解决的,前提是我刚才提到的那些限制。你可以通过要求公司提供他们拥有的那种东西来实现透明度,以便了解这些系统是什么,它们将如何工作,以及在什么条件下它们将这样做。
因此,这种类型的透明度是可以要求的,事实上,行政命令已经要求了。因此,对于不是这一代人工智能系统而是下一代人工智能系统的人工智能系统,它们根据计算技术来定义限制。
性能阈值,下一代系统预计将达到该阈值。如果行政命令使用国防生产法案,所有这些东西,来强迫公司制作关于,你知道,这些系统性能的所有相关数据的透明度报告,并且在,你知道,安全和
权利保护方面。但这适用于大型语言模型,这些非常强大的系统需要花费数亿美元来制造大型超级计算机。我们说的是用来制作ChatGPT的东西。还有整个人工智能应用的宇宙,它可能相当小,但仍然可能用于安全关键或人权关键的应用。
这就是欧盟,例如,走得更远的地方。他们所做的是创造了他们所谓的风险金字塔。所以他们说这些是低风险应用,这些是高风险应用,这些是所谓的不可接受的风险应用。因此,不可接受的风险应用是指诸如社会信用评分之类的东西,你使用人工智能来评估
你知道,人们的社会价值,并用于做出各种决定,或者执法机构进行的某些类型的生物识别监控。这些被称为不可接受的,并且直接被禁止。然后还有其他应用,例如在人力资源中使用人工智能,用于职业生涯的人力资源。这被认为是高风险应用,并受到所有这些类型的监管。
我认为,这就是我们目前在美国和欧洲所处的位置。我认为美国在这个阶段更感兴趣的是查看现有的立法机构,并让机构和委员会运用其现有的立法权力并将其适用于人工智能,然后了解这是否有效。
当然,欧盟在实际创建新的机构方面更为积极。是的。所以让我们更深入地探讨一下。我们似乎没有走欧盟的道路,即通过一项涵盖所有这些内容的大型人工智能法案。顺便说一句,参议员舒默来到CSIS,我的机构——瓦德瓦尼中心就设在那里——
去年6月,2023年6月。当他宣布他的安全创新框架时,最初的目标是全面的立法。所以他们正在寻找一项大型综合法案。我认为他们实际上已经决定他们想做的是逐项处理这个问题,并通过委员会。我认为这是一种有吸引力的选择的原因之一是,就如何在选举年获得通过的东西而言,这基本上是可行的,这总是很困难的。
这将是一个特别艰难的问题。这就是为什么我认为,你知道,深度伪造和基于选举的人工智能欺骗和广告。这些都是非常优先要处理的事情。是的,那将是我的问题。你预计今年国会会通过任何人工智能法规吗?如果是的话,是什么?
是的。在我回答你关于国会的提问之前,我只想指出,一些相关机构和委员会已经在做这些事情了。各州也是如此。是的。例如,在新罕布什尔州初选之后,出现了一个深度伪造视频。它假装是拜登总统,并且使用了他的声音。它使用人工智能来生成他的声音。是的。
有一系列机器人电话,在这个虚假的机器人拜登告诉人们选举的错误日期,并这样做。而且,你知道,机器人电话已经存在很长时间了,但这只是,你知道,这是第一次使用拜登总统的声音。好吧,在那之后,联邦通信委员会,你知道,禁止了机器人电话。
更普遍地说,在具有欺骗性的选举广告或机器人电话中使用人工智能。因此,机构正在做一些事情。现在,在国会,正如我所说,我们有参议院规则委员会提出的三项法案,由克洛布查参议员提出。然后在各州,
十多个州现在已经提出了各种类型的法案,其中一些法案甚至已经通过,这些法案规范了在具有欺骗性的选举广告中使用人工智能。而选举监管人工智能法案是否得到了两党的支持?绝对的。我的意思是,舒默参议员的四人帮长期以来一直是两党的。
从一开始就是这样。我在舒默参议员和四人帮举行的一次洞察论坛上作证。我认为我看到的一件事非常引人注目,你知道,我以前曾在国会作证过。我在这里看到的一件事是我以前从未见过的,那就是不仅仅是,你知道,在讲台上发言的参议员,对吧?
他们正在发表评论或提出问题。还有坐在观众席上的参议员,他们只是在那里学习和倾听。所以,你知道,你在我们谈话的开始就提到过,你知道,国会成员有时会因为他们对例如社交媒体技术的某些基本方面的无知而使自己难堪。
我认为这是一个领域,人工智能是一个领域,参议员和国会已经表现出令人难以置信的学习愿望。今天的播客由GiveWell赞助播出。你是一个注重细节的人。你想了解事情的真正运作方式。因此,当你向慈善机构捐款时,你应该看看GiveWell,这是一个独立的资源,用于对优秀的捐赠机会进行严格、透明的研究,其网站甚至会让最注重细节的读者感到震惊。
忙碌。GiveWell现在已经花费了17年以上的时间来研究慈善组织,并且只将资金定向到他们发现的少数几个影响最大的机会。超过10万名捐赠者使用GiveWell捐赠了超过20亿美元。
严格的证据表明,这些捐款将挽救超过20万人的生命,并改善数百万人的生活。GiveWell希望尽可能多的捐赠者对高影响力的捐赠做出明智的决定。你可以在他们的网站上免费找到他们所有的研究和建议。你可以向他们推荐的基金或慈善机构进行免税捐赠。GiveWell不抽成。
今天的播客由Shopify赞助播出。准备好为你的企业做出最明智的选择了吗?向Shopify问好,这是一个全球性的商业平台,让销售变得轻而易举。
无论你是开设你的在线商店,开设你的第一家实体店,还是达到百万订单,Shopify都是你的成长伙伴。使用Shopify的一体化电子商务平台和店内POS系统,在任何地方销售。使用Shopify的转化率最高的结账系统将浏览器转化为买家,比其他平台高36%。使用Shopify Magic轻松销售更多商品,这是你的人工智能驱动的全明星。
你知道吗,Shopify为美国所有电子商务的10%提供支持,并支持Allbirds、Rothy's和Brooklinen等全球品牌?加入遍布175个国家的数百万成功企业家,他们得到Shopify广泛的支持和帮助资源的支持。
因为企业的发展,与Shopify一起发展。今天就开始你的成功故事吧。在shopify.com/538注册每月1美元的试用期。这是数字,而不是字母。shopify.com/538。
你知道,我们在这里喜欢民意调查。因此,根据人工智能政策研究所的数据,78%的美国人认为应该对使用公共数据来训练人工智能模型进行政府监管。这里并没有太大的党派差异。民主党是83%,共和党是78%。事实上,独立人士最不关心,但也有72%。所以这里并没有太大的区别。
当我们谈论美国人在即将到来的选举中关注的问题时,我们并没有真正谈论人工智能。但这是立法者感到选民施压采取行动的领域吗?还是仅仅是立法者自己担心?这种压力是从哪个方向来的?当然。我只想告诉你一些我认为在这个话题上很有趣并且向我发出信号的事情。第一点是……
人工智能完全抓住了公众的想象力,就像很久以前没有哪项技术能做到那样。你知道人们关心人工智能,因为每一个媒体组织都在报道关于人工智能的新闻。而许多这些媒体组织都在根据人们点击的内容做出选择。所以人们点击,你知道,这些人工智能新闻,人们关心。
别那样解读我,格雷戈里。当然,FiveThirtyEight永远不会做出任何其他决定,除了对公众的质量和重要性。但是其他新闻网站,他们这样做是因为人们关心。当参议员回到他们的家乡地区或州时——
他们会收到关于人工智能的问题。这是人们关心的事情,是人们担心的事情。我认为在这方面还有另一件很有趣的事情是拜登总统,他经常会见外国国家元首,对吧?他会见其他国家的领导人。
而我从白宫听到的是,人工智能基本上出现在所有这些谈话中。就像,拜登已经很久没有与外国国家元首会面了,人工智能没有在谈话中以或多或少的程度出现。现在,这种兴趣水平和这种担忧水平会转化为什么样的压力呢?我认为他们确实觉得需要做些什么。对吧?
而现实情况是他们已经做了一些事情。他们创建了这个关于人工智能安全的新联邦组织。行政命令指示所有这些不同的联邦机构仔细审查他们的法律权力,看看他们可以部署哪些权力来适当地监管人工智能。如果他们还没有制定指导方针说明现有法规如何在人工智能的新情况下适用,那么在许多情况下,他们会被指示去制定这些指导方针。但是
就国会而言。是的,我本来想说,好吧,只是为了暂停一下,因为当然,即使是这项行动本身也是通过党派视角来看待的。有很多
美国人,主要是共和党人,不喜欢这些机构的监管权力,首先,认为这是,你知道,一些具有更自由主义倾向的人认为这是违宪的。除此之外,无论你从哲学政治的角度如何看待它,它都是很容易被下一届政府取消的东西,不像通过国会的立法那样。对。
是的,我们不知道在假设的第二届特朗普政府中,你知道,他们将如何推进人工智能政策议程,你知道,无论是监管还是其他方面。至少就第一届特朗普政府而言,白宫科学技术政策办公室实际上就此事发表了一份声明。他们当时的理论是,人工智能监管应该以“轻触”的方式进行。
在那里,特朗普政府基本上是在说,我们应该遵循我们在互联网上所做的故事,那就是让我们拭目以待。让我们让互联网发展壮大,变得有趣,不要试图用一堆监管要求来扼杀这个年轻而令人兴奋的技术生态系统。
然后,随着它在广度和能力上的增长,我们可以评估是否以及应该采取哪些监管措施。共和党肯定有一派人认为,这对于人工智能也是正确的做法。民主党也有一派人持同样的看法。
我想说的是,但也有一些例外。其中一些确实反映了根深蒂固的利益。例如,人工智能和版权现在是一个非常热门的话题。《纽约时报》和许多其他媒体组织已经将OpenAI告上法庭,声称它是在他们的数据上进行训练的,它正在重复他们的文章,并且这样做没有以任何方式补偿《纽约时报》。好的。
所以这是一个法律纠纷的来源。这也是政治纠纷的来源。好莱坞和电影业的主要游说组织正试图追究人工智能公司的责任,以确保在用于训练这些模型时,他们的知识产权得到保护。所以我的观点基本上是,在我看来——
今年会发生的事情,而不是选举后会发生的事情,实际上是围绕深度伪造和选举欺骗的这些利基问题。也许在知识产权方面有一些事情,但我绝对没有看到公众对……的广泛支持。
一项跨领域立法,例如欧盟人工智能法案。是的,我想更多地谈谈从政策角度来看接下来可能发生的事情。但关于选举的那一点,根据艾伦大学的一项民调,54%的美国人用“谨慎”一词来形容他们对人工智能的感受,70%的美国人认为人工智能可以通过生成虚假信息视频来显著影响选举。
和音频。我认为人们已经非常关注人工智能对本次选举的潜在影响。事实上,不到一年前,我们在本播客中做了一期节目,标题类似于“第一次人工智能选举”。到目前为止,我认为普遍的看法是,人工智能
人工智能对选举的预期或担忧的影响并没有消失。显然,正如你提到的,在新罕布什尔州初选期间发生了这种情况,但这届选举到目前为止并没有因为人工智能而显得非常不同。
你同意这种说法吗?你认为这可能是下结论太早了吗?你对此有何看法?是的,这对我来说很容易回答。这绝对是下结论太早了。让我给你提供一些我认为非常有趣的数据点。因此,人们可能会记得在2016年大选中,俄罗斯情报部门参与制作了许多基于虚假信息的资料。
内容。那是来自,我认为它被称为互联网研究机构,如果我的记忆没错的话。它绝对是来自俄罗斯的互联网研究机构。那里有数百人在俄罗斯的一个办公室工作。他们每天醒来,上班打卡,然后制作具有欺骗性的信息内容。但问题是,他们大多数人英语说得不好。而且
而且他们写的东西有很多共同的特点,那就是英语是他们的第二语言,俄语是他们的母语。好吧,就在最近,OpenAI宣布他们已经发现俄罗斯和中国情报部门利用他们的平台在大选前生成具有政治动机的虚假信息。
我认为真正有趣的是,OpenAI,ChatGPT不会犯语法错误。而且OpenAI,ChatGPT不需要你雇佣成百上千的人。
我们已经看到,在文本领域,这在之前就已经可以实现了,现在同样的合成媒体自动生成的东西,高度定制的东西,可以更具针对性,更符合受众的口味。我们现在可以以巨大的规模将其应用于音频、视频和图像。我认为这里有两种情况需要考虑。
第一种是大规模的。今天4chan有多少百分比的虚假信息在某种程度上起源于人工智能可能生成的外国内容?我不知道。我认为目前还没有进行过,或者说实际上无法进行关于这个主题的可靠调查。这是一种基于规模的攻击。我真正担心的另一种攻击是
一种极其精确、时机完美的攻击。就像2016年或2020年大选中的十月惊奇P型录像带或N字录像带,或者拜登摔倒或看起来中风等等,人们会对它是否真实有更强的判断力。但是今天,无论它是否真实,人们都不会知道。是的,完全正确。你知道,正确的信息,正确的媒体,对吧?
在历史上的重要时刻,正确的时间,真的可以成为关键时刻。然后我的问题就变成了,对吧,有什么东西真的会对美国大选产生影响吗?作为一个初步假设,我会说,是的,它肯定可以。我们现在应该采取措施来降低这种可能性。因此,基本上,即使我们没有人们可能害怕的人工智能的轰动性应用,例如深度伪造
在十月,人工智能的影响可能不那么引人注目,这只是在使用社交媒体的人们之间在互联网上传播的信息。但是,鉴于我们选举周期和十月惊奇的性质,现在就对人工智能对本次选举的影响得出任何结论可能为时尚早。
是的。我的意思是,仅仅因为坏事还没有发生并不意味着坏事就不会发生,对吧?如果在三里岛核灾难发生前一年,你说从来没有发生过核安全灾难,这意味着我们将永远安全,对吧?你就是一个傻瓜。我认为关于人工智能干预选举的真相也是如此。我不知道。
如果我说我100%肯定人工智能干预选举今年将是一个大问题和一个大现象,那将是错误的。但我确实觉得我知道它可能是一个大现象和一个大问题。所以我认为这足以证明我们采取措施来降低这种风险是合理的。正如你提到的,国会最直接的关注点似乎是与即将举行的选举相关的人工智能用途。但除此之外,在涉及版权(正如你提到的)或例如这份路线图中提到的内容时,是否有明确的政治意愿以不同的方式规范人工智能,例如一项当然会影响人工智能的隐私法案?这些事情是否有两党支持?在我们可能解决了即将到来的选举之后,接下来会发生什么?
我认为在联邦一级通过隐私法案将非常困难。在州一级,我认为这种情况正在发生。在一些州已经发生了。我还认为在国际一级,ChatGPT在意大利被短暂禁止,原因是它不符合GDPR,即现有的欧洲大型隐私法规。我之所以提到这一点,是因为所有这些公司都在美国和欧洲运营。
而且通常情况下,当他们被迫遵守欧洲法规时,他们只是在全球范围内这样做,因为这比试图根据不同的司法管辖区来调整他们的行为要简单得多。
所以这就是我认为关于隐私的情况。我认为这是一个非常棘手的问题。我认为知识产权是一个非常激烈的政治辩论。双方都有根深蒂固的特殊利益,但其中一方可能会获胜。我的意思是,这可能是,我认为我们可能会在2025年进行这场斗争,这是我的猜测。然后你就会进入更,我想你必须在这里区分你可能想要规范的两种类型的人工智能系统。
从历史上看,当我们谈论人工智能时,当欧盟人工智能法案首次起草时,他们并没有把ChatGPT放在心上。欧盟人工智能法案的第一稿早于ChatGPT。我之所以提到这一点,是因为在大语言模型之前,
大多数人工智能系统都是特定于应用程序的,对吧?如果你有一个计算机视觉图像识别系统的人工智能系统,如果你给它一堆猫的图片,它就会擅长识别猫。它不擅长识别军用飞机或坦克之类的东西。因此,从历史上看,人工智能系统非常特定于应用程序。
关于ChatGPT和其他大型语言模型的有趣之处在于,它们不是特定于应用程序的。它会给你提供医疗建议。它会给你提供法律建议。它会给你提供创业建议。它会给你提供人生指导或治疗师之类的建议。因此,你拥有这些单个系统……
它们在可以执行的应用程序数量上是如此多样化,以至于你可能想将它们作为一个实体来规范。因此,例如在欧盟人工智能法案中,他们将特定部门的法规分开,即低风险、高风险、不可接受的风险,你知道,风险金字塔。这就像基于人工智能系统正在做什么。
但他们还制定了一套关于他们所谓的构成系统性风险的通用人工智能系统的法规。这仅仅是因为其能力而规范技术。我认为在美国和其他地方,这里有趣的是,至少在立法中,法规大多说你应该遵循标准
顺便说一句,标准即将推出,我们保证。有趣的是,他们实际上已经强制制定了标准,然后他们强制执行了这些标准。因此,目前还没有关于构成负责任地开发和运行像ChatGPT、Claude或Gemini这样超级通用、超级强大的人工智能系统的现有标准,对吧?
但这些标准即将出台。我认为这也是美国必须努力解决的问题,即我们是否只想继续这种现有的特定于应用程序的监管模式?或者我们是否还想根据整体技术进行监管?到目前为止,我们在后一种情况下所做的只是强制执行一些透明度和报告要求。
你知道,这里有一个我们已经讨论过的辩论,那就是,你是否想等待技术发展,因为它可以在带来很多繁荣和效率的同时进行监管?或者你想先发制人地进行监管,因为你担心它可能产生的有害影响?
美国在这方面是站在等式的哪一边,这是否明确?不,我认为就减轻有害影响而言……
你可以指出一些地方。例如,在华盛顿特区,有一个由政策专家组成的完整社区,包括我自己,他们对人工智能与生物技术的交叉非常感兴趣和关注。对。人工智能能否降低设计比COVID更致命、更危险的新病原体的进入门槛?
因此,在这些利基领域,我认为美国,特别是拜登政府,希望能够领先于这些类型的风险并进行监管。但对于公平性和偏见等更广泛的担忧,我认为更多的是观望态度,例如,让我们看看现有的法规会如何变化。
在应对这一挑战方面所做的工作。让我们看看欧洲会发生什么,以及他们是否会为自己拍拍胸脯,或者因为他们所做的事情而感到像个傻瓜。然后让我们决定我们想要如何继续前进。所以
所以我认为这确实取决于这些不同的问题。然后还有一件事,对吧,这就是大型语言模型的透明度要求、安全报告要求,这可能会让政府更好地了解为什么它不想进行监管,或者它可能会让政府更好地了解为什么它想进行监管。
我们经常看到国会发生危机时会迅速采取行动。是的。我们只看到国会发生危机时才会迅速采取行动。那么,我们最终陷入情况非常糟糕,国会最终对此做出反应的可能性有多大?还有一种情况是,国会逐渐达成新的共识,那就是,你知道,在我大部分人生中,作为90年代的孩子,就像
自由贸易和全球化是游戏的名称。两党都逐渐认识到,这实际上掏空了美国的大量工业基础,加剧了工人阶级的疏离,这带来了各种政治影响。因此,虽然特朗普可能是共和党改变立场的原因,但拜登进一步推动了
关于对华关税、在美国制造产品以及对华出口管制,特别是针对人工智能的许多政策立场。没错。因此,华盛顿的变化有两种方式,一种是发生危机,国会做出反应。或者,在十年以上的时间里,每个人都开始意识到我们有点搞砸了
或者即使长期存在积极影响,一些负面影响也超过了这些影响,或者我们走得太远了等等。
现在展望未来,你设想我们与人工智能的关系会是什么样的?是的,我认为在危机驱动的方面,我认为这是最可能的监管途径,对吧?一些真正令人震惊的、非常光鲜亮丽的灾难性危机发生了。这刺激了新一轮监管的势头。我认为这就是现在正在进行的许多工作,即使他们失败了……
但我仍然认为值得关注,因为很多时候,当发生危机时,你会去看看,嘿,谁在这个话题上有比较成熟的提案?我认为这现在或将来是一个非常可能的情况。
你提到了中国,我认为到目前为止,至少在美国的政治辩论中,中国主要是一个不进行监管的理由。当我们考虑中国带来的竞争压力时,中国主要是一个投资的理由,因为希望大多数人都明白这一点,但在全球人工智能领域,
美国、欧洲和中国在人工智能研究方面都非常出色。美国是最好的,但这并不是一个巨大的领先优势。这是一个领先优势。美国和中国与欧洲相比,在人工智能商业化和产业化方面,实际上是建立真正通过服务实际客户赚钱的公司,
拥有真正强大的风险投资生态系统,美国和中国无疑是全球领导者。人工智能领域有很多非常聪明、非常有才华的人。因此,这在国会一次又一次地提出的论点是,对吧,如果我们用法规来束缚我们的公司,我们是否会让中国在可能比互联网更重要的技术竞赛中占据优势?这些都是赌注。好吧……
不过,赌注相当大。非常感谢你今天抽出时间与我聊天。嘿,我很荣幸。我应该说,长期听众,第一次打电话。感谢你。我的名字是加伦·德鲁克。我们的制作人是谢恩·麦基翁和卡梅隆·切塔维安,我们的实习生是杰拉·埃弗雷特。你可以通过电子邮件与我们联系,地址是[email protected]。你当然也可以在推特上向我们提出任何问题或评论。如果你喜欢这个节目,请在Apple Podcast Store上给我们留下评分或评论,或者告诉别人关于我们。感谢收听,我们很快再见。♪