欢迎收听Practical AI播客,我们将深入探讨人工智能的实际应用及其如何塑造我们的生活、工作和创造方式。我们的目标是使人工智能技术对每个人都实用、高效且易于访问。无论您是开发者、商业领袖,还是只是对热门技术背后的技术感到好奇,您都来对了地方。请务必通过LinkedIn、X或Blue Sky与我们联系,以随时了解剧集发布信息,并订阅我们的YouTube频道。
幕后内容和AI见解。您可以在practicalai.fm了解更多信息。现在,让我们开始节目。欢迎收听Practical AI播客的另一期节目。本周只有我和Chris。我们将与您一起进行我们所谓的完全连接的剧集,这是一期没有客人的剧集,我和Chris只是聊天
谈论某个话题或探索我们感兴趣的事情,或者我们在新闻中看到的事情,或者帮助深入探讨与学习相关的资源。我是Daniel Wightnack。我是Prediction Guard的首席执行官,一如既往地由我的联合主持人Chris Benson加入,他是洛克希德·马丁公司首席人工智能研究工程师。Chris,你好吗?
嘿,Daniel,我很好。期待今天。我们计划了一些有趣的事情。这应该很有趣。是的。对于我们的听众来说,我们一直在节目的幕后谈论很多事情,关于节目的未来。有些事情是关于,你知道的,比如重新品牌和更新我们的专辑封面,你很快就会看到。新的开场白,结尾语。
但也有一些新的内容重点领域,真的有意识地思考我们正在探索的一些事情。但是,如果您已经听我们一段时间了,您也知道我和Chris喜欢一起玩乐,并以不同的方式探索事物
有趣的方式,只有我们两个人和我们团队中的一些人,你知道的,想出了这个主意。那么,如果我们制作一些节目,并进行一种人工智能热点话题和辩论类型的事情呢?
所以这是我们最终会称之为AI热点话题和辩论的第一次迭代。这是一个不错的名字。但基本上,这里的想法是,有一个话题是围绕人工智能的更广泛讨论的一部分,人们对此存在分歧。
我们将讨论其中一方的一些论点。实际上,我和Chris对这个主题的看法并不重要。也许我们的一些想法会在讨论中出现。但实际上,Chris,你采取
采取一方的立场,表达对其中一方的一些论点。我采取另一方立场,表达其中的一些论点,然后我们一起讨论,希望让观众了解该主题的双方观点。而且,听起来很有趣。
你怎么想,Chris?我认为这听起来很有趣。当然,当我们想到第一个话题时,你可能会说我把一颗手榴弹扔进了混合物中。好问题,好问题。就是这样。而且这是一个我们俩都特别感兴趣的话题,尤其对我来说。但我真的想指出,我想强调我和Daniel并不一定采取政治立场
在任何一个话题上,我们有点像,这是一个采取一方或另一方的任务。但我也想强调一下,因为我在洛克希德·马丁公司工作,这是一家国防承包商,我绝对不会以任何方式代表洛克希德·马丁公司的观点。这只是我们今天进行的一次有趣的辩论。所以,我不经常需要做免责声明,但我觉得鉴于今天的话题,这很重要。是的。好吧,我要说的是自主性,
很多事情,它可以应用于许多行业。因此,我认为我们在这里要讨论的一些论点同样适用于自主性,例如,自动驾驶汽车、飞机、
监控系统,就像所有这些制造业之类的东西一样,与我们正在讨论的那些担忧类似。显然,如果您拥有自主武器系统,那么它就具有特殊的生死攸关的因素。它与世界各地的冲突交织在一起。在我观看过的关于有趣辩论的YouTube视频中,我逐渐了解到,你应该构建
你应该将这种事情构建为一个问题,或者,或者,或者将它构建为一个,嗯,不是一个,不是一个问题。我应该说,作为一个,作为一个陈述,一方采取肯定的立场,一方采取否定的立场。因此,如果可以的话,陈述是自主性在,嗯,
系统或军事应用中是一个总体上积极的事情,有利于,你知道的,世界的发展和安全以及解决冲突等等。所以,
我因为Chris可能更接近这一点。我将采取肯定的立场,那就是,嘿,自主性实际上可以提供一些好处,更安全,更少,你知道的,人员伤亡,更合乎道德的应用。而Chris将采取相反的立场,认为。
我们不应该在这些系统中使用自主性。Chris,你明白了吗?我是否以合理的方式解释了这一点?我不是一个很好的辩论者。不,听起来不错。我们将采用这种方式。我想向观众提到,实际上是有人通过一篇帖子让我想到这一点的,是我们节目的前嘉宾之一,
在2024年初的2月20日,我们有一期节目叫做“引领人工智能和国家安全方面的变革”。我们节目的嘉宾是美国空军退役将军杰克·沙纳汉,他是Maven项目和国防部联合人工智能中心的负责人。他实际上创立了它。
我在LinkedIn上经常关注他。他重点介绍了两篇论文。一篇是关于支持自主武器系统的论文,由哥本哈根大学军事研究中心国际法与安全教授凯文·约翰·海勒撰写。他还是国际刑事法院战争罪问题特别顾问。他写了一篇
一篇名为“对自主武器的批判中‘人’的概念”的论文。
在那之后,在他写完之后,另外两个人,伦敦玛丽女王大学政治理论教授L.K. Schwartz和该领域的专家尼尔·雷尼克博士(哥本哈根大学政治学系军事研究中心研究员)撰写了一篇反驳论文。这篇反驳论文名为“技术乐观主义推理的陷阱”。
对凯文·约翰·海勒的“对自主武器的批判中‘人’的概念”的评论。这是一篇最近的论文,今年2025年5月23日。海勒撰写的原始论文是2023年12月15日。这似乎是一个有趣的话题。就像我说的那样,我们今天不会严格遵守他们的主题。
但主要是为了好玩。是的,是的。为了好玩。我们应该至少说明我们与我和Chris之间进行此类对话的计划是,我们中的一个人会表达这些辩论双方的一些核心论点。
嗯,但也许会打开它,只是对这些观点进行一些随意的谈话,我们如何看待它,它的有效性等等。也许这只是因为我自私地不想表现得像一个糟糕的辩论者,并且没有对我对手的好的反驳,但同时,嗯,我和Chris是朋友。所以这使得它,这使得它很有趣。最终都是为了好玩。是的。
酷。所以,再次强调一下,今天要讨论的热点话题或辩论是,自主性在自主武器系统或军事应用中的应用总体上是积极的。但我认为,正如你将看到的,其中一些论点可能是
可以提取到其他自主系统中,例如自动驾驶汽车或飞机,或者可能是监控系统或制造业自动化等等。因此,我认为我们可以从第一个开始,我很乐意提出第一个
第一个说法。实际上,我的这个说法是基于的。所以,再次强调一下,我站在肯定的一方,并参与了海勒的那篇文章,并重点介绍了。所以我的说法是
你知道的,在冲突和武器系统中的自主性是或可能是积极的,因为真正的士兵或参与任何过程的人类是有偏见的、情绪化的和容易出错的。对吧。如果一个自主系统能够在遵守方面胜过人类,例如,国际人道主义法,呃,
那么这实际上会减少这些系统的危害,对吧?而不是仅仅依赖于有偏见的人类,再次强调,有偏见、情绪化且容易出错。因此,促使这一点的文章的一部分谈到了,你知道的,在高影响场景(例如战斗场景)中的决策是如何
受到这些认知社会偏见、负面情绪以及人类在任何给定时间可以处理多少信息方面的实际限制的扭曲。我从那里看到的一个引语是,很少有士兵
在激烈的枪战中真正思考采取生命的影响,或者将其推断到其他事情上,也许是驾驶飞机的人、驾驶汽车的人或从事制造活动的人。
他们并没有思考他们正在采取的每一个行动的影响。在某些方面,他们只是试图在这种环境中生存,度过一天,或者你知道的,处理他们的情绪。所以这就是第一个说法。你怎么想,Chris?
好吧,我认为相反的观点将是,我们人类重视我们做出的伦理和道德判断。我们对此寄予厚望,并且我们人类的能力非常重要。所以,你知道的,反对那种观点的事实是,你知道的,战争迷雾会接管个人,他们不会考虑更高层次的想法,这个事实是
如果你,呃,另一方面是,是,我们确实,我们确实显然希望战斗中的人类能够做出道德判断。而且确实会发生这种情况。呃,你知道的,在那里,在那里你有人在想,你知道的,那里有一个孩子拿着武器,而且,而且,而且我,我不,我不舒服,无论发生什么。我不舒服这样做。这就是我们人类所拥有的那种道德判断。
非常重视,我们并不一定相信自主性能够在不久的将来做出这样的区分。因此,将生死攸关的决定
从人类手中夺走是我们真正难以接受的事情。它会产生诸如随之而来的问责制差距之类的想法,并确保战争虽然可怕,但至少对在紧急关头做出决定的普通士兵来说,它具有一定的伦理核心。是的,这是一个非常有趣的问题,Chris,因为我也……
我的意思是,我知道我和你谈过这个,你也是一名飞行员,在考虑飞机方面,我一直在和我妻子一起看很多。我认为这已经制作了很长时间了,但现在可以在流媒体上观看。这是一系列节目,我认为它叫做“空中灾难”。
它只是突出了不同的空中灾难,例如商业航空公司发生的空中灾难,你知道的,历史上已经发生过,并且发生了什么。他们会进行调查,一些片段有点滑稽,不是指发生的事情,因为显然它们是悲剧性的。但就制作方式而言,它非常非常字面化。一些表演可能不是一流的。
但我从这个节目中学到的是,我对飞行员必须处理的信息量感到惊讶,考虑到某种状态或疲劳,甚至只是领导不明确,例如谁在驾驶舱中负责,都可能导致非常不合理的决定。所以我确实理解这个论点,无论是关于
你知道的,武器系统、驾驶飞机还是驾驶汽车。当然,人们并不总是,并不总是做出那些关于他们如何处理信息的理性决定。我完全同意。这,有,你知道的,但也有,这很有趣,当我们谈论到这一点,谈论到,你知道的,人类在这些过程中的缺陷。我们当然也有。
还有一种概念,那就是当你处理如此多的信息并且知道你有很多信息必须在紧急时刻进行情境化处理时。飞行员经常这样做,你知道的,当发生的事情,你知道的,
A,人类大脑的独特性被应用于此,我们还感觉不到自主性可以做到这一点。当然,如果你现在对航空公司等进行民意调查,
在其他他们会将自己的生命交给自主性的地方。大多数人仍然,我没有特别关注民意调查,但在过去几年中看到很多民意调查后,会认为他们,他们不愿意没有人在那里。再一次,这是,这是拥有一个关心他们的人、一个掌控全局的人、一个你信任的人的概念,呃,大量的专业知识,
能够确保获得良好的结果。我认为这是需要接受和认识到的一件重要的事情,人们还没有达到那个阶段。他们通常还没有达到那个阶段。现在,我要指出的是,作为一名在军事工业中工作的人,你知道的,
复杂的世界,军事方面的自主性比民用方面要多得多。但我认为,我们需要达到一个点,我们的自主性能够满足我们对人类,对人类操作员的期望。
好的,朋友们,使用Agency(A-G-N-T-C-Y)构建多智能体软件的未来。Agency是一个构建代理互联网的开源集体。它是一个协作层,人工智能代理可以在其中进行通信、发现彼此并在框架之间工作。对于开发人员来说,这意味着标准化的代理发现工具、无缝的代理间通信协议以及用于组合和扩展多代理工作流的模块化组件。加入Crew AI、Langchain、Lambda Index、Browser Base、Cisco以及其他数十家公司。Agency正在发布代码、规范和服务。没有任何附加条件。您现在可以与其他关心高质量多智能体软件的工程师一起构建。访问agency.org并添加您的支持。那是
A-G-N-T-C-Y.org。好的,Chris,继续讨论与自主性论点相关的论点,这意味着人工智能或计算机系统完全控制。
诸如武器系统或军事环境中的其他事物,或其他自主性。因此,我将提出的下一个论点是支持自主性或肯定的论点,即
我们一直在谈论很多关于人类道德或融入其中的意图。这里的论点是责任基本上仍然存在,这里没有不明确的责任。所以有些人可能会说,
哦,如果发生航空事故,那是计算机的错,对吧?那么你如何,你在哪里承担责任,对吧?在这里,我会说,或者在表达这种论点的一部分时,论点将是,虽然责任仍然很明确,但它仍然在于这些系统的设计者或指挥官,就像其他类型的自动化系统一样,对吧?
如果你想到像自动化武器系统这样的东西,它们不会扰乱这些法律和道德框架,因为是这些系统的开发者实际上强加了这些框架,或者应该在系统中强加这些框架。
因此,在这种情况下,论点是,在刑事责任方面,人类士兵和自主武器之间没有显著区别,因为责任在于设计、编程或授权部署这些机器的人,而不是机器操作员。
这些只是其开发人员和负责部署它们的人的意志的工具。这就是论点。你怎么想?我认为对此的反驳论点将是,仅仅通过自动化来减少平民伤亡是不够的。并且认识到自动化可以遵循规则集,例如战争法和其他适用法律,确实如此。
我们不想失去我们道德决策能力和随之而来的情感。我们有同理心。我们认识到在特定规则或法律下,
一项行动可能被授权,但可能存在一种人类概念的克制时刻,因为你认识到这种区别很复杂。世界并不简单。它不是非黑即白。这些认识到情况的品质,有很多辅助性问题并非在严格的交战规则下得到涵盖,并且
这些很重要,我们关心这些,并且,你知道的,如果你输入一个经过训练以对特定情况做出反应的模型,呃,你知道的,呃,战术情况并且是,是,呃,遵循规则。所以它是完全合法的,但是,
他们仍然无法认识到这些复杂性,他们也无法拥有这种同理心,并且你无法用目前的科技或近未来的科技来取代人类。所以这是一件
这取决于你如何看待它,你想完全消除这些人类品质,依赖于自主性吗?我认为这是我们时代的一个重大问题。是的,我这里有一个后续问题,Chris。也许这是一个建议。我不知道。但你提到了多少……
规则或人类干预情况下的事情,例如他们在灰色地带做出决定,事情可能模糊不清。我想知道我们是否在这里构建了一个非常二元的框架,对吧?自动化或非自动化。我在这个领域之外,在像
与我们的客户(在制造业、医疗保健或其他领域)一起实施自动化时发现的一件事是,可能存在一个自动化过程
你可以分析该自动化的输入,以了解事情是否与你过去看到的事情相似或不同于你过去看到的事情。例如,也许你正在处理患者的临床文件,对吧?并且
有一组你过去经常看到的情况,你已经测试过了,并且你很有信心,对你的AI系统如何处理这些临床文件、做出决定并输出通知或警报或一份草稿有一定的信心,
或者电子邮件或任何这些自动化,那么你可以接收一组与你过去看到的事情非常不同的输入。哦,这对患者来说是一个独特的情况,或者其他什么。并且,并且,
它,你不知道AI系统会做什么,对吧?通常我们会建议我们的客户和合作伙伴。这是一个你可能想要标记的领域,不要让AI系统自动化,但这些事情可能是应该交给人类处理的事情。所以我只想指出这种
场景,我们以一种非常二元的方式进行讨论,例如它是自动化的还是不是自动化的,存在一个区域,就像有点自动化和有点不自动化,你正在查看
根据你过去看到的数据分布,进入系统的状况感知?你提出了一个非常有趣的问题。我想我会将其定义为你在查看,你知道的,这些不同类型的
并且基于你正在这些结构中进行的数据,存在这种关于人类如何适应自主性的概念,并且你对自主性提出了这些问题,并将其提升给人类,等等。
我认为这是弄清楚前进道路上这种关系是什么样子的一个重要部分。因为我认为它在不同的用例和行业中差异很大,你正在查看什么。我知道在我的行业中,存在一种关于循环中的人类与循环中的人类的概念。
因此,存在人类和自主系统以非常直接的方式作为合作伙伴工作的自主性。有些人可能会说,人类对这种观点的看法是,自主性通过赋予他们更多能力来在正确的时间处理正确的信息以做出正确决定,从而使处于循环中的人类变得超人。
然后将其与循环中的人类的概念进行对比,这有点像你提到的那样,它会提出一些可能是例外情况、特殊情况或你试图引起注意的关键发现的大量数据中的特定事物。它们适合不同的用例,但在尝试设计一个执行此操作的系统时,这些用例并不总是很清楚。所以我认为两者都有很大的空间。
我认为现在我们倾向于更频繁地查看循环中的人类,但我要说的是,作为一名观察者,在我的行业中,在这种特定情况下,呃,
随着,随着,战争的性质正在迅速变化,战争的速度也在迅速增加。我们面临的挑战是,如果事情一直在加速,人类能做什么。所以,嗯,你在那里提出了一些非常好的问题,关于如何,呃,如何,呃,
如何解决其中的一些问题,特别是考虑到我们已经讨论过的内容,关于,你知道的,伦理与推迟自主性。是的。我很高兴你提到了速度和效率。我想在你说话的时候,我正在考虑一件事。也许我会举几个例子,
可能是,比如说,在飞机的情况下,我会回到那个话题。也许是因为我一直和我妻子一起看那个节目。但在那种情况下,你可能遇到了一种情况,你意识到自动化系统应该提醒人类操作员一些事情
好吧,如果人类操作员没有关注系统中正在发生的事情,对吧,在这种情况下,是飞机,警报可能会发生,他们可能必须获得如此多的上下文和如此多的信息来了解为什么警报会发生,哪些系统出现故障等等,到他们赶上时。
对吧。然后飞机坠毁了,或者类似的事情。对吧。所以在这种意义上,速度效率部分确实很重要。我还考虑过一种可能不太生死攸关的情况。如果你正在使用,你知道的,这些vibe编码工具,并且你正在创建X,你知道的,网络应用程序或类似的东西,你正在创建你正在处理的这个新系统,这个新项目。
你可以让这些自动化系统工作很长时间,创建很多东西。然后,哦,突然之间,出现了一个vibe编码工具无法解决的错误。那么,你就会介入,你会说,我不知道这里发生了什么。创建了哪些文件?这是如何配置的?这个错误的真正上下文是什么?
这个错误,对吧?这对你来说可能效率更高
并推断出这一点,而不是你只是编写了所有这些代码。这可能并不总是这样,会发生不同的情况,但速度和效率的因素确实让我觉得这是我们正在讨论的这个因素的一个关键部分。是的,这很有趣。你的例子真的引起了我的共鸣,因为我认为这是,
当我尝试自己进行vibe编码以及与更传统的编程相比时。我认为我遇到了这种情况,这取决于很多上下文。如果你不仅遇到问题,你还必须在某种程度上决定,可能有一些外部原因来构建,选择某些工具和某些东西。如果你正在进行vibe编码,并且本质上是模型,你知道的,
可能有很多自由来选择它如何构建你正在构建的内容以及它正在使用的工具等等,这可能会产生影响。我认为我遇到的vibe编码挑战就在于此,让模型自由做出我认为我应该做出的选择,无论我是否正确,无论我认为我是否应该自己做,这可能与性能、约束或未来的团队技能或我们可能拥有的其他任何东西有关。
所以你提出的一个很好的观点。好的,Chris,我将表达的第三个肯定说法是关于在武器系统冲突以及自主性的其他领域中支持自主性,即自主性实际上可以减少
伤亡,痛苦,因为自主性实际上导致更高的精度或一致性。因此,原则上禁止这些系统可能会导致比好处更多的危害。并且,你知道的,你可以这样演绎。
在海勒撰写的论文中提到的一些事情,再次强调,激发了我们围绕这个话题的讨论,例如,这些系统在一段时间后可能比人类士兵更好地遵守国际人道主义法,或者,你知道的,这些系统,我
我认为这是正确的,至少在某些情况下现在是这样,这些系统比最精确的非自主系统更精确,或者具有更精确的潜力。
系统,在目标、性能或某种方式的操作方面。因此,这里的论点是,一种彻底的禁令实际上会导致更多的痛苦,而不是更少的痛苦。
那么您觉得如何呢?好吧,在我提出反驳意见之前,您在那里提到的这一点很有趣。我举个两秒钟的例子。俄罗斯入侵乌克兰已经持续了好几年了。据新闻报道,目前正在进行相当多的小型自主无人机战争。
而且,我们在那儿看到的一件事,是人和机器的结合,我认为这多少会引向我的观点,那就是你可能有无人机操作员在操控,但通常当他们发动攻击时,最后的攻击是由自主系统完成的,也就是最后几秒钟的实际打击。
将由自主系统驱动,正如您刚才提到的那样,关于精度等等。这有点,你肯定在整个行动的大部分时间里都有一个人参与其中,然后这个人必须决定是否为了精度而完全自主。
但是,另一方面,重要的是要注意,当您引入更多自主能力时,尤其是在将人从直接循环中移除,而只是成为“人机环路”中的一部分,即他们监督自主系统而不是直接指挥武器本身时,就会出现非人性化的一面。有一种想法是,我有一个工具。
作为一个人,我甚至不需要将我的工具用到最后,去打击我的目标。我可以让机器完成它。我认为,关于某种程度上贬低人类生命的想法,对很多人来说可能是令人反感的。
即使那是你的对手,你的任务是消灭那个对手,那仍然是一个人,而你只是将你的当前问题(你的目标)外包给你的机器去处理。
而这正是我们在进行的这场伦理讨论中的一大难题,即使是你的敌人和对手,你试图以你必须的方式去解决,那么,将它外包出去意味着什么?这是否会使它变得更加……
非人性化和不人道?所以我认为双方都有非常有趣的论点。我希望听众朋友们,到目前为止一直在收听,能够看到在这方面,这些问题上,并没有对与错的答案。到目前为止,双方都有利弊。是的。好吧,
可能有些人会持一种绝对肯定的二元观点。我相信肯定有。我不知道人们是否看过电影《密室惊魂》,但片中那个家伙在……
他那种开场白中谈到了确定性,将其视为一种邪恶和潜在的有害事物。嗯,我认为至少从我的角度来看,这其中有一些细微之处,需要讨论。很高兴看到人们在这两方面都参与其中,无论你有多大的……
确定性。但是,是的,在我们谈论这个问题时,我想到了另一件事,克里斯,嗯……
所以有一点我认为非常重要,那就是这种非人性化的因素。就像你说的,实际的影响是什么?我不必,你知道,我不必直视我的敌人,我不必看到这一切发生。它发生得有点……遥远,我认为这实际上非常有效。我认为从我的角度来看,这确实令人担忧。
另外,我认为在你说话的时候我想到的一点是,从指挥控制方面或领导方面来看,那些实际上正在做出一些这些决定的人。我认为你可以想象,也可能找到很多场景,领导层做出了一个……
他们期望由他们的部队执行的决定,或者在企业或行业场景中,他们的员工,对吧?无论是由于沟通不畅,还是由于直接拒绝或恶意意图,该计划并未执行……
结果导致某些东西受到了损害,无论是人类的痛苦还是商业上的损失等等。所以我认为,如果……你控制着……
自主系统,而这些自主系统实际上执行了你的意图,并且你所投入的领导力或指挥控制是出于对更大的利益的良好意图,那么你可以更加确信这些事情会被执行。
是的,我觉得这部分也是论文中的论点。是的,我同意。指挥控制与这些系统密切相关且非常重要,不仅在军事领域,而且在航空领域以及所有其他领域。它可以是一个工厂,诸如此类。这是关键问题之一……
是的。
我们正在尝试做很多限制。例如,在美国,我们已经谈到过遵守国际战争法,所有现代国家都应该这样做。
你知道,那些参与这些活动的人,因为,你知道,伦理是很多这类事情的基础,在我们参与冲突时,它能让我们保持在正确的轨道上。但除此之外,例如在美国,国防部有3000.09号指令,名为《自主武器系统》。它过于详细了。我们不会在这里的节目中详细介绍它。但如果这是一个……
对听众来说感兴趣的话题,你们可以在网上搜索一下,阅读这些指令,看看目前的情况如何。当我们谈论这些背景下的自主性时,有很多讨论,我们是否需要更新其中的一些内容,以反映我们目前的选择和伦理框架,即我们今天如何看待自主性与编写该指令时的观点。而这正在迅速变化。
因此,国防部3000.09号指令是为我们一直在讨论的自主武器系统对话增加一些背景的另一个地方。
然后,还有一点需要注意的是,当我们进入其他行业时,例如执法部门,你知道,在那里,冲突可能会根据定义被带入其中,你知道,当你采取警务行动或类似行动时。当你谈论更多的是国内情况时,什么是合适的,你想去哪里?还有很多东西有待解决。
我真的很希望听众朋友们,无论这是否与他们所在的行业有任何关系,它仍然会影响他们的生活。如果你看看扰乱和政府行为之间的平衡,不管你的政治倾向是什么,我们都在外面看到,想想正在发生的事情,以及相应的反应是什么,什么是合适的,以及这些新技术如何适应一个正在迅速变化的世界。
呃,快速发展的快乐。我希望人们真的在深入思考这个问题,并参与到决策中,呃,这是一个成为行动者的美好时刻。是的。是的,而且,
如果我只是总结一下,也许,你知道,可能只有一小部分观众,或者我不知道,也许,也许很少一部分人实际上参与了自主武器之类的事情。但对于那些正在构建人工智能驱动产品、将人工智能集成到其他行业中的更广泛群体来说,你……
从这场来回讨论中,有一些非常有趣的关键要点。我只是,你知道,在我的脑海里,总结了一些,克里斯,从最初的那一点来看,当你在创建人工智能集成到事物中并衡量性能时,在某种程度上,你想考虑一下,嗯,如何,人类的实际表现是什么?而这……
通常而且总是达不到100%的准确性或100%的性能,对吧?人类会犯错。因此,当你考虑这些实现时,无论是机器翻译还是……
其他人工智能自动化或知识检索,人类在这种情况下会如何表现?也许可以进行一些比较。绝对的。是的,我认为第二点是,如果你正在创建自动化,那么责任在于这些系统的开发者和构建者。因此,你应该承担这种责任,并……你知道,承担所有权。
然后我认为最后,从谈话的最后部分来看,我喜欢你说的那样,克里斯,我们不应该非人性化那些我们服务的对象。这并不意味着我们不能在任何情况下使用自主性,但我们应该……
珍视人类生命,珍视那些将使用我们系统的人,实际上不要……你知道,不要试图与我们保持距离,而是要具有同理心,这还有一个额外的好处,那就是你将为人们创造更好的产品,你将创造他们想要使用的更好的集成,并且你将……你知道,希望通过……
所以,我不知道。这些是我们讨论中的一些有趣的总结要点。绝对的。还有一件事我想指出的是,从我的角度来看,这是一次非常有趣的谈话,因为在开始的时候,你给了我……
一种对自主性持谨慎态度的角色,而不是完全支持,因为我所处的行业实际上是,我实际上在很多方面都相当支持自主性。部分原因是我在该行业工作期间,我对……
不仅对技术,而且对从事这项工作的人们都产生了信心,因为他们本身也是人。呃,但我发现提醒自己扮演谨慎的一方,提醒自己所有这些作为人我真正关心的事情,对我来说很有启发。呃,所以我认为这实际上比我……
如果我那种完全支持自主性的立场那样,效果要好得多。所以我想谢谢你。这是一次非常非常好的讨论,来来回回的。它真的让我思考,尤其当你说了我通常会发现自己会说的话时。然后我在想,好吧,现在该考虑另一点了,这……
所以我感谢你。是的,有思想的谈话。是的,这很棒。希望这对大家来说是一个很好的学习点。我还想提醒大家,我们现在正在做的一件事是,我们正在列出一些你们可以参加的网络研讨会。
听众参与关于某些主题的讨论。因此,如果您访问practicalai.fm/webinars,这些信息就在那里。但我们也希望你们在LinkedIn、Blue Sky和X等社交媒体上与我们互动,并与我们分享你们对这个主题的一些想法。我们很乐意听到你们对这些论点中任何一方的看法,或者你们对这些事情的看法。感谢收听这次谈话……
这是我们第一次尝试“热点话题与辩论”。我希望他们会原谅我们。是的,完全正确。我们在这里进行实验。让我们再来一次,克里斯。这很有趣。听起来不错。所有……
好了,这就是我们本周的节目。如果您还没有查看我们的网站,请访问practicalai.fm,并确保在LinkedIn、X或Blue Sky上与我们联系。您会看到我们发布与最新人工智能发展相关的见解,我们很乐意让您加入讨论。感谢我们的合作伙伴PredictionGuard为节目提供运营支持。请访问predictionguard.com查看他们的信息。另外,感谢Breakmaster Cylinder的节拍,感谢您的收听。现在就到这里。
但下周您还会听到我们的声音。