今天,在AI每日简报中,我们将讨论昨晚选举对AI的影响。AI每日简报是一个关于AI领域最重要新闻和讨论的每日播客和视频节目。加入我们的讨论,请查看节目说明中的链接。大家好。昨天当然是一场意义重大的选举,坦率地说,我们对结果有了更清晰的了解。
我原以为会是这样。所以今天,我们将进行一个类似“速览”的节目,尽管我们会在人们试图理解选举结果对人工智能的具体影响时进行。我们将有完整的iPad内容,以及两部分内容,所有内容都围绕选举中的AI以及接下来会发生的事情。
首先是来自《纽约时报》凯文·罗森的片段,来自一篇名为“特朗普胜选对科技意味着什么”的更长文章。该部分标题为“AI:进步加速”。顺便说一下,这些内容将由我十一实验室的版本阅读。以下是第一部分“AI:进步加速”。特朗普先生和哈里斯女士在竞选期间都没有过多谈论人工智能,但可以肯定的是,在第二任特朗普政府期间,AI的进步将继续,甚至可能加速。一些支持特朗普先生的科技精英,包括风险投资家马克·安德森,都与AI运动的加速主义派别有关,并反对任何可能减缓该行业发展速度的AI监管措施。
说实话,我敢打赌特朗普先生根本不会花太多时间思考AI。他可能会委托给范斯先生,他似乎对这个话题有些兴趣。但就特朗普先生的AI观点而言,它很可能会由他身边的人塑造,方向可能是鼓励美国科技公司在与中国及其他竞争对手的竞争中领先,并消除可能阻碍他们发展的监管障碍。有趣的是,马斯克先生在这里有点像一个变数。他经营着一家名为XAI的AI公司,这家公司将受益于轻微的监管。
但他同时也担心AI带来的生存风险,并支持了一项有争议的加利福尼亚州法案,该法案将对AI模型实施安全标准,许多AI公司都反对这项法案。好了,现在回到非AI主题。这篇文章并没有真正包含太多有效论点,其核心论点是特朗普不太可能花太多时间思考AI,除非范斯先生会提供一些建议,因为这是一种风险投资形式。
这篇文章最有趣的地方在于关于马斯克的问题,文章正确地指出,一方面,他担心AI的生存风险,但另一方面,他可能受益于轻微的监管。我认为文章正确地指出了这一点,这可能会在马斯克参与政策制定时产生一些有趣的紧张关系。就AI而言,虽然不能保证情况会真正如此发展。
接下来,我们将阅读科尔·韦格斯在TechCrunch上发表的一篇更广泛的文章,文章标题为“特朗普胜选对AI监管意味着什么”。一场艰苦的选举周期已经结束。唐纳德·特朗普将成为美国第47任总统。
共和党控制着参议院,可能还会控制众议院,他的盟友有望在政府最高层带来变革。其影响将深刻地体现在AI行业,该行业主要反对联邦政策制定。
特朗普一再表示,他计划在第一天废除拜登的AI政策框架,并与那些强烈批评拜登“轻微监管”方法的决策者站在一起。拜登的AI政策于2023年10月通过行政命令生效,由于国会对监管的无所作为,才导致了行政命令的出台,其规定是自愿的,而非强制性的。AI行政命令涵盖从促进AI在医疗保健中的应用到制定旨在减轻知识产权盗窃风险的指导方针等方方面面。但其中两项更重要的规定,引起了部分共和党人的不满,涉及AI安全风险和现实世界安全影响。
其中一项规定要求开发强大AI模型的公司向政府报告其模型的训练和安全情况,并提供测试结果,以探测模型的弱点。另一项规定要求商务部国家标准与技术研究院(NIST)制定指导方针,帮助公司识别和纠正模型中的偏差,包括偏见。AI行政命令在过去一年中取得了很大成就。
商务部成立了美国AI安全研究所(AISIA),这是一个研究AI系统风险(包括具有国防应用的系统)的机构。它还发布了新的软件,以帮助提高AI的可靠性,并通过与OpenAI和Anthropic的协议测试了主要的新的AI模型。
批评人士认为,特朗普政府的报告要求过于严格,实际上迫使公司披露其商业机密。在3月份的众议院听证会上,众议员南希·梅斯表示,这些要求可能会吓跑创新者,并阻碍类似ChatGPT的突破,因为这些要求依赖于对国防生产法的解读。一些共和党议员也称其为行政权力过度扩张的例子。
在7月份的参议院听证会上,特朗普的竞选搭档J.D.范斯表达了对预防性过度监管的担忧,他认为这会巩固我们现有的科技公司。
范斯还支持反托拉斯措施,包括FTC对大型科技公司和AI初创公司的反垄断调查。一些共和党人将NIST在AI方面的研究工作等同于对保守派言论的审查。他们指责拜登政府试图以关于虚假信息和偏见的自由主义观点来引导AI发展。
参议员特德·克鲁兹最近抨击了NIST的“觉醒式”AI安全标准,称其旨在控制基于社会危害的言论。特朗普在去年12月在西达城的一次集会上表示,如果我当选,我将取消人工智能行政命令,并禁止使用人工智能来审查美国公民的言论。
那么,什么可以取代拜登的AI行政命令呢?我们可以从特朗普在上次总统任期内签署的AI行政命令中找到一些线索,这些命令建立了国家AI研究机构,并指示联邦机构优先考虑AI研发。
他的行政命令要求各机构在应用AI时保护公民自由、隐私和美国价值观,帮助工人获得与AI相关的技能,并推广值得信赖的技术。在竞选期间,特朗普承诺将支持以言论自由和人类繁荣为基础的AI发展政策,但拒绝详细说明。一些共和党人表示,他们希望NIST专注于AI的物理安全风险,包括其帮助对手开发生物武器的能力,拜登的行政命令也涉及到这个问题。
但他们也避免支持对AI的新限制,这可能会危及NIST的部分指导方针。事实上,AISIA(位于NIST)的命运不明朗。虽然它有预算和与全球AI研究机构的合作,但AISIA可能会因简单地废除拜登的行政命令而被取消。
在10月份的一封公开信中,一些公司、非营利组织和大学呼吁国会,在今年年底之前制定相关立法,以规范美国AI。
特朗普承认AI非常危险,并且其开发和运行需要大量的资源,这表明他愿意应对日益增长的AI风险。在这种情况下,专注于美国国防政策的政治学家莎拉·克雷普斯并不期望在未来四年内,白宫会出台重大的AI监管措施。
我不认为特朗普对AI监管的观点会达到足以让他废除拜登AI行政命令的程度。她对TechCrunch表示。乔治·梅森大学的研究员迪恩·鲍尔表示同意,特朗普的胜利可能会导致一种轻微的监管制度,该制度将依赖于现有法律的适用,而不是制定新法律。然而,鲍尔预测,这种趋势可能会在各州政府中发展,尤其是在加利福尼亚等民主党坚守的州,以填补空白。
各州的努力正在积极进行。3月份,田纳西州通过了一项法律,以保护配音演员免受AI的侵害。今年夏天,科罗拉多州采用了基于风险的方法来部署AI。
9月份,加利福尼亚州州长加文·纽瑟姆签署了数十项与AI相关的安全法案,其中一些法案要求公司公布其AI训练的详细信息。今年一年,州立法者已经提出了近700项AI立法。鲍尔表示,联邦政府将如何应对这些挑战尚不清楚。
研究公共事务的雪城大学教授胡米·埃巴认为,特朗普的保护主义政策可能会对AI监管产生影响。他预计特朗普政府将加强对中国的出口管制,例如对开发AI所需技术的管制。拜登政府已经实施了一些禁止出口AI芯片和模型的措施。
然而,据报道,一些中国公司正在使用绕过这些措施的方法,通过云服务来访问这些工具。埃巴表示,尽管需要更多的全球合作,但新的管制措施将损害全球AI的监管,其政治和地缘政治影响可能巨大,这可能会导致全球范围内出现更多专制和压迫性的AI应用。
如果特朗普实施限制AI技术出口的措施,这可能会冻结AI研发所需的资金,乔治·梅森大学的另一位研究员马特·米德尔顿表示。在竞选期间,特朗普提议对所有美国进口商品征收10%的关税,对中国制造产品征收60%的关税。米德尔顿表示,贸易政策可能带来的影响最大。
当然,这只是初步的分析。虽然特朗普在竞选期间大多避免谈论AI,但他的许多政策,例如限制H-1B签证和支持石油和天然气,可能会对AI行业产生连锁反应。牛津互联网研究所的数据伦理学教授桑德拉·沃克敦促各监管机构,无论其政治立场如何,都不要忽视AI的潜在危险,以及其带来的机遇。这些风险与政治光谱上的立场无关。
他说,这些风险不分地域,也不关心党派之争。我只能希望AI治理不会沦为党派问题,而是一个影响我们所有人的问题。
我们必须共同努力,找到好的全球解决方案。我们现在回到非AI主题。我们再次看到一个大大的耸肩。我完全不知道这里具体指的是什么。特朗普承诺不采取或废除的措施,比他承诺要做的措施更清晰。就加速AI而言,
我认为凯尔正确地指出了AI与总统职位在重大方面重叠的领域之一,即贸易政策。我认为更广泛的外交政策,特别是中国政策,将是未来特朗普政府的重要组成部分,而AI很可能成为中国政策的重要组成部分。今天的节目由Vantage赞助。
无论您是创业还是扩张公司,安全计划、展示一流的安全实践并建立信任比以往任何时候都重要。Vantage自动化了ISO 27001、SOC 2、GDPR以及领先的AI框架,如ISO 42001和NIST AI风险管理框架,节省您的时间和金钱,同时帮助您建立客户信任。此外,您可以通过自动化问卷调查来简化安全审查,并通过面向客户的信任中心来展示您的安全态势。
Vantage为全球8000多家公司提供支持,例如LangChain、Lea AI和工厂AI。使用Vantage来展示AI信任,实时改进安全性。了解更多信息,访问vanta.com/nlw。今天的节目由Superintelligence赞助。
然而,从AI的潜力到实际捕捉价值,存在巨大的挑战。Superintelligence致力于填补这一差距。Superintelligence加速AI采用和参与,帮助团队利用AI提高生产力并创造商业价值。
一个交互式的AI用例注册表让您的公司全面了解人们目前如何使用人工智能。结合其构建教程、学习路径、研讨会和用例库的能力。Superintelligence帮助公司内部人员展示他们如何从AI中获得价值,同时为人们提供将这些见解付诸行动的资源。
未来三个注册人数超过100人的团队将获得免费的嵌入式咨询。这是我们的Superintelligence团队与您的组织合作,确定对您最重要的特定用例,并帮助确保这些用例的采用,从而创造实际价值的过程。
访问superintelligence.ai了解更多信息。AI赋能网络。现在回到节目。现在,我发现一个分析非常有趣,即在缺乏强有力的、明确的联邦AI监管制度的情况下,州政府可能会介入。首先,我完全可以预见到这种情况的发生。
其次,如果发生这种情况,我也可以预见到,这可能会促使第二任特朗普政府试图更积极地推动其对轻微监管制度的愿景。最后,让我们转向我们第三个片段,该片段来自The Information的斯蒂芬妮·帕拉佐的时事通讯。它名为“特朗普总统任期内将解决开源AI之争”,我们将把这个片段交给十一实验室的版本来阅读。
特朗普在周二总统选举中的胜利对AI的影响有很多,但还不够清晰。特朗普表示,他将废除乔·拜登总统的AI行政命令,该命令要求训练大型AI模型的公司向联邦政府共享相关信息。然而,在另一个关键领域,特朗普的立场并不确定,即关于免费可用的开源AI(例如Meta平台的Llama模型)是否对国家安全构成威胁的问题。这个问题上周五受到了关注,路透社报道称,Llama模型正在被中国研究人员用于开发可能用于军事应用的AI工具。
对Meta来说,该报告尤其令人担忧,因为Meta禁止美国政府机构和承包商使用Llama模型用于军事目的。尽管周二Meta发布了一篇博文,表示已取消该禁令,允许美国军方使用Llama模型,但这可能不足以改变批评者的看法。
在这个问题上,特朗普是反华的,并且历史上限制过诸如加密软件、无人机和半导体等技术的出口。
拜登政府加强了对这些技术的限制。很难想象特朗普会同意让中国获得最先进的AI模型。OpenAI、Anthropic和专有软件制造商已经表示,政府应该规范最强大的AI模型,以防止恶意行为者轻易使用它们。
Anthropic明确反对开源AI,理由是安全问题。Meta首席执行官马克·扎克伯格在7月份的一篇博文中表示,我们的对手擅长窃取模型,将模型复制到U盘相对容易,而且大多数科技公司都远未达到让这种行为更困难的运营水平。这是一个很难在国家安全机构面前提出的论点。
即使扎克伯格是对的,很多事情也取决于谁向特朗普就AI政策提供建议。例如,他的副总统候选人J.D.范斯过去曾公开支持开源AI,认为这项技术可以防止某些人利用AI传播左翼偏见。特朗普还表示,他将向开源AI支持者埃隆·马斯克寻求技术政策建议。
然而,最终,这些建议对特朗普政策的影响程度尚不清楚,即使特朗普确实打击开源AI,Meta也可能不会完全失去希望。毕竟,他们总是可以选择将Llama模型改为封闭源代码。然而,这样做,Meta将加入专有模型开发商的竞争,而失去其主要优势:Llama用户对模型的完全控制,以及Meta将自己定位为为普通开发者服务的倡导者的光环效应。
我们现在回到非AI主题。斯蒂芬妮在这里再次指出,存在地缘政治影响,特朗普希望与中国建立的贸易政策将对他的白宫如何看待人工智能产生决定性影响。
她在这里的论点与开源AI的影响有关。加利福尼亚州反对的其中一个主要论点是,
第47任总统的意外潜在后果是开源AI。但这是否会与中国政策相冲突?有很多方法可以发展,并且两边都存在相当大的紧张和拉锯。
现在,如果您在阅读完这三篇文章后,仍然觉得我们不知道特朗普政府的AI政策会是什么样子,至少在具体细节方面是这样,那是因为我们确实不知道。然而,很明显,这将是未来政府的一个主要议题。
这将成为一个国家安全问题、贸易政策问题、经济竞争问题以及能源问题。所以,你们最好相信,从现在开始,我将花更多时间尝试了解特朗普兄弟如何看待这些问题,这可能意味着什么对整个行业。不过,今天就到这里,希望简短。感谢大家。聆听,直到下次再见,和平。