我的名字是 Allegra Guinan。我是 Lumiera 的联合创始人兼首席技术官,Lumiera 是一家专注于负责任 AI 的精品咨询公司。我喝的咖啡是加燕麦奶的拿铁。地球上善良的人们,你们好吗?我非常享受这次与 Allegra 的谈话,谈话内容涵盖了负责任 AI 的方方面面以及实际操作。
这些年来,我谈论负责任 AI 的次数很多,因为你们中有些人可能不知道,我之前还有一个播客,全部内容都是关于 AI 伦理、负责任 AI,所有这些如今似乎越来越重要的流行词。我在运行那个播客的时候,ChatGPT 还没有出现,有时我觉得
当我们讨论负责任 AI 或伦理 AI 的话题时,有很多空谈。而这次与 Allegra 的谈话,完全没有这种感觉。所以,让我们不要浪费时间,直接进入正题吧。好吧,让我们谈谈负责任 AI。这似乎是一个不错的起点。我知道你一直在深入研究……
你所说的负责任 AI 是什么意思?是的,这是一个好问题,因为负责任 AI 没有一个明确的定义。在我看来,它是一种设计、开发、部署、使用和监管 AI 的方法,其重点是一套与责任相关的关键原则。这些原则,当人们列出这些原则时,
数量可以从三个到十个不等。在我看来,肯定有一些原则会浮现在脑海中。公平就是一个,还有问责制、透明度、可解释性、隐私和安全、可靠性和稳健性。我知道这很多,但它们都很重要。还有许多其他重要的原则。但是,负责任 AI 的思想和概念是一种整体方法,适用于生命周期的各个部分。嗯哼。
你刚才提到负责任 AI 的所有这些不同部分,让我想起了,所有这些都以“E”结尾。我想,基本上,英语字典里任何以“Y”结尾的词。是的,都在里面。所有这些都是原则。你能想到的任何词。但这就是重点,对吧?有很多不同的思考方式。所有这些不同的组织都在制定框架。
围绕它的框架。例如,美国国家标准与技术研究院 (NIST) 拥有一个关于 AI 的风险框架,当他们谈论它时,更多的是关于透明度。还有国际隐私专业人员协会。
他们也有一种方法。然后,每个公司,在这个领域中发挥作用的任何大型公司,都会提出自己的定义和原则,并将其公布出来。这也使得衡量和讨论变得非常具有挑战性,因为没有人真正谈论同一件事。它取决于当时谈论它的人的解释。是的,对我来说,你使用的词语可能
非常主观。因此,即使在透明度方面,透明度究竟意味着什么?你会有,没关系,一家公司会将透明度解释为一件事,而一家非营利组织可能会将其解释为另一件事。因此,你不断地获得不同程度的透明度,即使我们说,哦,我们都同意
透明度很重要。是的,甚至不是每个人都认为它很重要。是的,它确实会改变。在我看来,可解释性和透明度似乎非常密切相关。所有这些都可能非常接近。透明度,在我看来,是拥有这种可见性
在你构建系统时发生了什么。因此,你可以看到他们是如何考虑设计的,你可以看到做出了哪些类型的决策,但可解释性实际上是理解。就像人类应该能够理解我们是如何得到这个输出的,为什么做出这些决策。
这些事情是不同的,而且很多时候也很困难。因此,如果一家公司决定可解释性不是他们的首要任务,那么显然他们将以非常不同的方式进行构建和发展。我认为这是因为这些词语并没有真正明确定义,我们也没有在这些词语上达成一致。这也使得
作为用户,很难理解你可以问什么问题,你应该考虑什么,或者如果你正在考虑为你的公司购买 AI 产品或解决方案,你甚至如何弄清楚你应该寻找什么?这就是为什么我们进行这些对话并开放讨论我们如何定义它们非常重要的原因。
好的,如果我理解正确的话,如果你的公司没有给你一个清晰的指导方针或指导原则来阐述他们如何看待负责任的 AI,那么当你走出去并试图从市场上购买东西时,你将会感受到的连锁反应……
你不知道你需要向该提供商提出什么问题,因为你不太清楚。是的,就像我们想要一些负责任的东西。是的,就是这样。我认为这还有另一种不同的思考方式。它不仅仅是一个复选框。它不仅仅是合规性。这两者是不同的。因此,拥有法规是一回事,显然越来越多的法规正在出台。因此,越来越多的公司将试图
仅仅勾选那个框。是的,我们符合规定,即使只是最低限度的合规性。但是,当我们谈论负责任的 AI 时,它实际上应该是一种组织变革,一种来自领导层的文化变革。但这也是组织中每个人的责任。即使你只是自己构建某些东西,也应该理解你构建内容的意图,为什么你要将某些东西提供给人们使用。
所以,我认为很多时候,隐私团队、法律团队可能会在你所在的组织中审查供应商,或者你有工程团队,他们突然成为构建一切的人,尤其是在这个领域,事情发展如此之快,并且
产品经理或其他任何人都会说,是的,尽快构建这个东西,把它发布出去,领导者也希望看到这一点,所以突然之间,工程师有责任理解这个术语并将其发布出去,如果你在组织内部或区域内部(无论规模大小)没有达成一致,那么你最终将不会得到每个人都认为公平、合乎道德以及所有这些不同事物的结果
你认为这对大型组织来说更重要吗?
我不这么认为,因为有很多小型组织正在构建最终可能获得大量使用和影响力的东西。并且会产生滚雪球效应,他们发布了一些东西,其他人则在此基础上进行构建,等等。我认为它实际上应该只是开发文化的一部分。我认为组织的规模并不重要。即使只是一个个人,就像我说的,我认为理解
意图是什么,你为什么要构建某些东西。你的意图是积极的还是消极的?你是否在跟踪你做出的决策?即使是为了你自己,你是否理解你正在构建的系统为什么做出这些决策?如果你不理解,我认为这是你应该停下来反思你为什么要这么做的时刻,这很难,因为人们非常兴奋,他们想快速构建,这是有道理的。但我认为很容易被冲昏头脑,然后最终到达一个与你最初意图相去甚远的地方。是的。
你有没有一套你倾向于鼓励人们提出的问题?就像你刚才提到的那样,它的意图是什么?你为什么要构建它?决策是如何做出的?这感觉是一个很好的开始。这也感觉像是参与这个过程的任何人都应该做的事情。现在,他们是否会这样做,
这可能是另一个问题,因为回答这些问题有很多摩擦,或者我只是在我编写我的函数时在脑海中回答它,我想,是的,我当然知道我为什么要这样做,但这并不一定为整个组织编纂它,所以你是否看到过关于要问的问题以及如何使这些问题
对整个组织来说易于发现的最佳实践?是的,我认为实际上在此之前一步是,当你提出要问的问题时,房间里有哪些人。当我们并且
我先退一步。我是专注于负责任 AI 的咨询公司的联合创始人。因此,我们正在帮助组织在 AI 方面做出更好的决策,他们构建 AI 的方式,他们使用 AI 的方式。因此,我们做的第一件事是,当我们开始与组织的领导者交谈时,了解谁参与了决策。我们的核心价值观之一是视角密度。
当我们考虑这个术语时,当你考虑常规意义上的密度时,例如你可以在某个区域内容纳多少东西,
视角密度是指你可以在给定的空间、给定的房间内拥有多少不同的视角。因此,如果你进入一个房间并开始提出你刚才提出的这些问题,你那里有哪些人?如果你只有一小部分来自组织同一方面或具有相同背景的人,那么你提出的问题将不会
最终处于一个非常公平或负责任的地方。所以,我认为在你提出这些问题之前,应该先考虑一下,我们是否邀请了我们认为应该在场的所有人?可能一开始不会,这没关系。因此,了解差距在哪里,以及如何引入更多观点,以便你可以提出能够引导你找到所需答案的问题集。我喜欢这种视角密度,并认识到你可能……
房间里没有所有正确的声音。或者可能是……
你需要将某种类型的文章传播给更广泛的群体以获得这种视角密度。是的,绝对如此。我们只知道我们所知道的。我们只有我们自己的生活经验,这在我们自己内部也可能非常多样化。我们可能经历过很多不同的生活,生活在不同的地点等等,但这仍然只是我们自己的。因此,当你开始着手处理这个问题时,
某种将产生深远影响的产品解决方案,并且可能比我们之前在这个技术领域中拥有的东西更不受你的控制?你如何引入更多观点以确保你正在构建的东西能够以公平的方式被许多不同的人使用?
所以我的本能反应是,哦,我必须引入更多利益相关者。这将使事情变得非常缓慢,或者当然有人会想成为像狗一样在消防栓上撒尿的人。也许他们所说的话并没有真正增加多少价值,但他们必须感觉自己正在以某种方式做出贡献。我认为我们都曾与这样的人一起工作过。你如何保持……
在引入这些不同的利益相关者的同时,保持对话富有成效?我认为有几种不同的方法。一种也是这种文化转变。所以,我认为这不应该感觉像是一种负担。
这实际上是一种思维方式的转变,即你如何构建。例如,如果你承受着非常快速的构建压力,然后你也面临这些障碍,这些障碍可能会让你感觉像是障碍,你需要进行更多对话,你需要创建更多工件,无论是什么,那么这将与你认为需要优先考虑的事情相冲突,因为这是你之前被告知的事情。所以我确实认为必须
并且了解你是否在一个团队或组织中工作,在这个团队或组织中,花更多时间正确地做事是可以的。我认为你可以将其应用于任何事情,对吧?即使是工作。
在负责任的 AI 之前。你想处理基础性的事情。你想处理你的技术债务。你不能只是不断地更快地构建而不用担心所有这些其他事情。所以它应该具有相同的思维方式,即你只是花更多一点时间来正确地构建事物,以便它们更可靠、更可扩展、更健壮。然后你之后可以更快地构建。如果你事先制定了这些原则,并且知道你应该做什么
你应该做出的决策,需要考虑什么,那么你之后可以更快地行动。所以我认为在开始时多花一点时间是一件事,并且要转变这种思维方式。
另一种方法是创建易于使用的技术要求,而不是仅仅是一堆策略,大量的来回对话,我认为这确实需要发生,但也许并不需要工程师一直参与。尽管我认为工程师需要更多地参与业务对话。但是,例如,
Lattice Flow 的人制定的欧盟 AI 法案技术要求,例如 Comply AI 或无论你如何称呼它。我认为这是一个非常好的例子,说明如何使某些东西真正具有战术性,而不是这种大规模的,
法规,你不太确定如何分解并每天使用它。所以我认为,如果我们能够做得更多,并且朝着这个方向发展,即你如何构建检查,拥有你们都一致同意的与这些概念相关的指标,并且它们只是你工作流程的一部分,那么我认为对于工程师来说,这会减少很多畏惧感。你如何看待业务需求被转化为这些技术需求,或者
法律文件被转化为技术文件,例如 Comply AI 的情况?
是的,老实说,我认为我们没有看到很多这样的情况。这是对欧盟 AI 法案的第一次技术分解,这显然是一项非常新的法规。这不是我经常看到使用的东西。不是那个具体的用例,而是通常情况下,与之直接相关的技术要求,某些立法或其他任何东西。
我认为,如果你在开发领域工作了一段时间,你会看到这种
人们最初想要的东西与最终构建的东西之间的脱节。我曾经是产品经理、技术项目经理,我非常清楚地看到这种脱节一直存在。所以我们甚至一开始都不擅长这样做,更不用说在这个新领域了。所以我认为那里肯定有很多机会。这绝对是我希望看到更多的东西。这也是为什么让工程师参与进来很重要的原因,因为这样你也会得到这种视角。如果满足你的需求,这对我来说很容易理解。
当我构建时,我会提出这些问题,以了解我是否正在以我应该的方式或你想要的方式进行构建。所以我认为进行这些对话并弄清楚如何将这些需求格式化为技术需求是一件应该发生的事情。
我们显然有一些可用的指标。我认为它们不像某些性能指标那样广泛使用,但有一些指标是关于偏差和毒性的。你仍然必须定义你的阈值。因此,再次强调,必须与构建者、组织进行对话,以了解这对你们意味着什么,以及在什么情况下你会说,这并不合适,我们不会继续进行。但它们确实存在,我希望我们能看到更多,并且它们在所有事情中都能得到更广泛的应用,因为现在,
我看到很多,是的,上下文是准确的。是的,延迟很低,但这些都是性能方面的事情。它实际上并没有说明最终这是否有害,甚至是否对另一端的人有用。所以我认为改变一下我们对指标的看法,真正将其作为前期规划过程的核心部分,并将负责任 AI 的更多概念纳入这些指标中,以便我们可以衡量它们。
这几乎感觉像是这些东西在与实际技术部分不同的层面上发挥作用,对吧?就像你刚才谈到的性能指标一样。它是否有害或是否有用在我看来更像是一个产品指标。感觉这些问题几乎更大,希望你在对话的早期就提出这些问题,而不是……
当你已经部署了 AI,然后你意识到,实际上,这并没有,它并没有那么有价值,我们都见过这种情况很多次,仅仅是因为有人想要使用 AI,或者至少说他们正在使用 AI。是的,它们是不同的。绝对的。我认为因为现在我们看到很多
工程师推动开发,因为他们是这个领域中最有知识的人。公司、组织意识到他们的团队中有人能够构建他们认为必要的东西。因此,很多事情都落在了工程师身上。所以我认为自然而然地,它更倾向于性能,因为这是你在构建时所考虑的
当你构建时,你会想,好吧,是的,这正是我想要的。它不是我预期的,无论你如何为自己定义它。因此,它与一般产品管理或构建产品的思维方式并不相同,在产品管理或构建产品中,你拥有……
这个完整的规划阶段,你定义你的成功指标。这些是与影响和产品相关的指标以及性能指标。你拥有这个完整的过程。你有很多工件。它会经历一个过程,就像现在没有发生这些事情一样。人们并没有将 AI 视为一种产品。很多事情都落在了工程师身上,让他们去构建并发布它。这就是我所说的,有很多关注点都集中在性能指标上,这仅仅是因为事物的发展方式。我认为需要转变,即
我们正在考虑其他因素、其他概念,并将这些因素也纳入对话中。我所做的是关于负责任 AI 的 MLOps 会议,在战术层面,在工程层面。我问的是,
如果一家公司决定他们关心负责任的 AI,并且他们发布了所有这些东西,然后他们要求工程师不间断地工作,不断地发布东西,这真的负责任吗?他们正在影响他们的员工。他们没有为工程师提供他们需要的工具。他们没有让他们参与对话。他们说他们正在做负责任的 AI,但我认为工程师现在承受着巨大的压力。
而且他们确实是推动我看到的许多对话前进的唯一人员。在战术方面,有很多理论上的对话、法规等等。但归根结底,我没有看到这些与工程师之间有太多联系。
我认为这是负责任 AI 运动总体上受到的反弹的原因,那就是它有很多空谈。但是,当事情真正开始时,你实际上会做什么?很高兴你指出了这一点,并说,看,工程师被迫创造事物。然后你还有其他人说,是的,我们希望它负责任。他们没有
明确定义负责任的含义,他们也没有真正给工程师空间去创造他们正在寻找的负责任的 AI。是的,就是这样。而识字率在这里对于责任来说非常重要。
在工程方面,有很多技术识字率。我认为在隐私等团队中,与 AI 相关的识字率领域可能需要非常了解法规方面的情况。但在其他任何地方,甚至在高管层面,甚至尤其取决于你的位置,你都没有看到投入大量时间来真正理解他们所要求的东西。
并了解能力、局限性、他们现在团队中有哪些人,以及为了做出决策并以他们心中所想的方式推动组织前进而缺少哪些人。我认为其他团队(工程团队之外)有很大的责任参与到这场对话中,来创建这些定义,来创建这种文化,然后建立一个对每个人都有意义的框架,而不仅仅是将其放在一个团队或另一个团队身上,然后说,去解决这个问题。
我希望某些东西是透明的,但我不会告诉你这意味着什么。祝你好运。这就是我现在看到的对话中的情况。我认为需要发生巨大的转变。
很好。这就像查理·芒格的名言,告诉我我会在哪里死去,这样我永远不会去那里。你告诉我们所有不应该做的事情。所以希望我们能做相反的事情。这引出了一个问题,你认为哪些团队做得很好?他们正在做的一些事情是什么?基本上与你所说的相反。但也许你已经看到某些方法
甚至某些已被证明非常有效的策略。
是的,我认为首先制定一个策略非常有效,而不仅仅是走出去,在没有计划的情况下试图做太多事情。也许我只是喜欢计划,但我确实认为,对你要去哪里以及为什么要去那里有一些了解是有帮助的。我认为从小处着手在这个领域非常有帮助,在这个领域,你有很多参与其中并理解的人,并且理解
将一起构建对负责任的方式有影响的东西的人,尝试只关注一个领域,然后从那里开始构建,然后说,好吧,这有效。我们证明了我们的价值。这不是我分享的任何新信息,但我们仍然不一定看到这一点。我认为默认情况下
模式就像是在所有东西中都加入 AI,这也有可能发生,因为你可能有很多你使用的应用程序,突然之间它们都包含了 AI,所以它发生在你身上,但我认为从小处着手,专注并逐步构建,看看你实际上在哪里创造了价值,这是一件事,另一件事是共享学习
所以,我认为那些正在找出团队中已经存在的人员的组织,这些人对事情非常兴奋,他们创建了一个频道,Slack 频道,无论是什么。他们开始举办每周会议。他们变得非常兴奋。这些人有很多
知识,并且非常投入。如果一旦你确定了你的原则,无论负责任的 AI 对你意味着什么,这些人对于将其传播给其他人来说都非常有帮助。所以我认为现在这也利用不足或重视不足。但是拥有这些的公司
拥有这些的组织,我认为在推进事情以及他们心中所想的方式方面做得更好。我认为这在整个领域都是如此,没有充分利用或充分重视的是那些是新事物倡导者的人,他们自然会开始你想要的对话。这不需要强迫。将会有推动这一进程的人。是的,那些正在这样做的布道者。这是一个非常好的说法。当你谈到计划时,
什么是成功的计划?那是什么样的?另一方面,当我们已经开始做某事,现在我们试图追溯地使其变得负责任时,会怎么样?是的,这显然取决于成功对你意味着什么,计划最终会是什么样子。
所以也许最重要的部分是你是否已经定义了成功是什么?是整体采用吗?是提高团队的识字率吗?是要被誉为该领域的创新者之一吗?你想构建以前从未构建过的东西吗?你在这里试图做什么?你是否理解这是什么?所以这是第一步。再次强调,不仅仅是说我们想要 AI,然后就结束了。
这还不够一个计划,所以我认为你不需要知道每一个细节,它不需要以这种方式具有规定性,即这些是我们试图发布的精确解决方案,但对成功对你意味着什么有一个理解,我认为这是最好的起点,所以显然你可以对事情进行更新,例如,一旦你发布了某些东西,它不需要成为曾经存在的唯一版本,我希望他们心中有一些迭代过程
这实际上也是我们正在做的事情。所以很多人都有 POC(概念验证),这些 POC 正在失败。他们没有实现他们预期的投资回报率,原因有很多,因为他们没有定义成功,因为他们没有以对员工或客户有意义的方式推出它。他们没有提出正确的考虑因素,无论是什么。所以我实际上认为,如果你已经推出了一些东西,而这些东西并没有像你想象的那样交付,那么这是一个非常好的练习。希望你没有选择你
整个业务都依赖于的东西,而且它很小并且受控。所以你可以回顾一下,好吧,如果我们可以做得不同,什么地方做得不好?我们在哪里看到潜在的输出
与我们的价值观或愿景不符,无论是什么。让我们围绕这些具体的事情做出改变。现在我们知道我们需要有实验计划,或者我们需要有一些我们之前没有的评估框架。所以我认为,如果你处于这种位置,这实际上可能非常有帮助,因为你会非常清楚地、非常快速地看到差距在哪里,以及你在哪些非常重要的事情上开始失败。
是的,这是一个非常好的说法,利用失败作为学习,然后认识到,好吧,下次我们这样做时,我们将如何做得不同?是的,这种无懈可击的概念非常有趣。我不知道你是否读过或读过哈拉里的《Nexus》。他是写《人类简史》的作者,这本书很多人都很喜欢。《Nexus》是他的最新作品。
所以他正在谈论信息作为一个概念,他最终也谈论了 AI。但是,存在着这种无懈可击的概念。如果你认为自己是无懈可击的,并且你没有计划任何失败,你就会失败。显然,这是不可避免的,但你将一无所有,最终会被摧毁。他用大型机构和组织(例如教会)来说明这一点,他们认为自己是无懈可击的。
这适用于技术。它适用于小型系统,大型系统。如果你没有计划好事情会出错,你将不得不迭代,你认为一切都会完美无缺,这是一个完美的解决方案。
最终它不会奏效。它会失败,之后你将一无所有。所以我认为这是一个非常有趣的概念,我们在谈到技术、我们在构建时应该认真思考。这与鲁棒性也密切相关,鲁棒性是负责任的 AI 中非常重要的原则之一。因此,与可靠性不同,鲁棒性是,好吧,有一条路径
我将创建更多路径,因为如果这一条不起作用,那么我将能够处理任何可能遇到的情况,并灵活地、适应性地做出调整。对于你现在发布的任何东西,这也很重要。所以当你构建时,
你应该计划迭代。它不应该是你最终发布的最后一个版本,因为我们会犯错误。我们会错过一些东西,但你不会想到所有事情,因为你没有让每个人都在现场,因为你行动迅速。很自然,这种情况会发生。所以首先要接受这一点,并建立一个流程来处理它发生时的情况。在实际产品中,这看起来像什么?让我们举个例子。也许你见过一些 AI 产品
已经被发布出来,除了迭代产品之外,鲁棒性对这些产品意味着什么?我不确定我是否见过很多
很好的例子。我肯定看到了事情失败的例子,我看到事情被撤回了。我相信你也是。我们今年都看到过这些关于大型公司、大型语言模型做出疯狂的事情并发布完全疯狂的文本的故事。然后事情最终被撤回。我相信然后会做出改变,道歉,然后事情得到解决。
很难判断什么时候不是那样。我认为这可能更微妙,而且不一定会成为很多人的新闻。特别是如果你没有最大的组织。我认为最重要的是为此做好计划。迭代是可以的。这也是透明度发挥作用的地方,对吧?所以如果你有一些东西,你正在使用 AI,你把它放到世界上,让人们理解他们正在
与 AI 交互非常有帮助,我认为这也突出了责任。例如,这些答案可能不正确。它们基于来自此的数据。此数据集不需要是特定的,但直到目前为止,我们有这些限制。我认为比我们已经看到的要多得多,我认为目前的情况相当有限。
此外,因为很多人不知道,他们正在构建他们对其能见度非常有限的基础模型。但我认为更明确地说明我们知道的差距,以便用户理解,好吧,
这可能并不完美。我将稍微调整一下我的期望。所以如果最终被撤回并迭代,也没关系。每个人在这个理解中仍然很好,这将会发生。所以我认为只是准备、适应和理解你不会第一次就做对。是的,有趣的是,在欧盟,我认为他们提出的欧盟法案中的一件事是,如果它是 AI,它必须明确说明。而且
与一些在美国构建语音代理的人交谈,他们说这有多么冗余。因为我特别问过,当你的语音代理与人们通电话时,它是否会将自己识别为 AI?他们说不会,因为人们很快就会明白。他们明白这有点不对劲。所以说,
它并没有真正实现什么。既然人们已经知道,他们知道有些事情不对劲,他们知道这不是人类,所以他们可以猜测它是什么。而你不会通过说“我是一个 AI 语音代理”走得太远。好吧,让我们开始我们的对话吧。所有发生的事情都回到了指标。如果你在将自己识别为语音代理时首先说这句话,人们就会挂断电话,这对你没有任何帮助。
让人们拥有与你的语音代理的这种体验,对吧?我认为这将很难坚持下去,因为很明显,这些代理会越来越好。例如,质量将会高得多。也会有更多的个性化。所以机器人会知道如何与特定的人交谈,以真正引起他们的共鸣。
所以我不知道这个论点还能维持多久。但我认为这也是识字能力发挥作用的地方。所以我认为公众仍然存在相当大的误解。在理解这些系统的局限性或它们的功能、工作方式方面存在很大的差距。
我认为很多都是,好吧,是的,我知道 chat GPT 存在。或者是的,这听起来像个机器人。但这到底意味着什么?我能相信什么?我应该相信这是 100% 准确的吗?我们通常谈论幻觉。我知道你把它作为你的商品来谈论。今年实际上少了。我认为几年前它是更多的话题,但是……
人们甚至不明白这个概念。就像公众一样。我们处于一个泡沫中,尤其是在工程领域。在这个整体中,这是一个更小的泡沫。所以一个普通人不会真正理解这些界限是什么。我认为做出这样的假设是不公平的。再次,当你构建时,当你设计时,这就是我们将如何部署它。这就是体验将是什么样的。如果你不了解你的普通用户对什么的想法或他们如何解释它,
那么你将做出与现实不符的决定。也许你的假设是,如果他们与机器人交谈,他们会挂断电话。你知道吗?你真的调查过你的用户群吗?是的。你了解他们对 AI 的感受吗?如果你了解到他们持怀疑态度,或者如果你从他们那里听到这是因为他们想要不同的体验,也许你可以构建它,而不是仅仅基于一个假设来构建一些东西
然后是对某人将如何回应的假设等等。我认为这是问题的一部分,对吧?我们只是做出了大量的假设,而没有真正理解事情的另一面是谁。是的,因为我本能地认为,这是我的假设,如果他们正在与语音代理互动,他们只想完成他们所要求的事情。而且……
如果是一个人帮助我完成我打电话的原因,很好。如果是一个语音代理帮助我完成它,很好。如果是我不得不拨打几个电话号码,而且它是完全机器人的,很好。只要完成它,让我尽快挂断电话就行了。是的。在这个例子中,如果有人构建了一个语音代理,
如果他们真的了解他们的用户群,并且人们最关心的事情是尽快完成事情,并且他们已经填写了调查问卷,或者团队尽职尽责,并且他们真的了解人们并不关心他们是否正在与机器人交谈,那么,无论你是否透明地宣布你正在与机器人交谈,都没有关系。也许机器人可以说,
我是一个 AI 代理,但我保证会在 1 分钟内完成这项工作。比人类更快。是的,比人类更快,无论是什么。就像你可以让它符合你的用户群的需求一样。我认为这不是不遵守这种法规或不理解其目的的借口。我认为这有点转移注意力。是的,这是有道理的。并且思考世界某些地区从一开始就真正设置了护栏,例如欧盟法案强制要求 AI 声明自己是 AI,这很有趣。然后是世界其他地区,在美国,是的,随你便,在这方面是狂野的西部。无论什么对……来说最好,或者这几乎就像说自由市场将以某种方式决定一样。嗯哼。
是的,人们谈论很多这些差异。我知道有一种看法,它也可能是真实的,例如,法规阻碍了创新和快速发展。很明显,欧盟与美国对此采取了截然不同的方法。当然,事情发展的速度反映了这一点,但是……
是的,我仍然支持它。我仍然支持这种理解意图的想法,确保它没有害处,采取措施创建你需要的工具,以便你能够真正以一种不会危及人类的方式构建事物。这只是我对它的立场。我知道并非每个人都这么认为,但我认为这很重要。像……
我作为联合创始人的公司 Lumira 的使命,是一个为人类装备的未来。
因此,与其调整我们的方式以适应向我们袭来的技术,不如说这是一个机会,让我们塑造技术来支持和保护所有人类以及我们想要维持的东西。我认为这种视角的转变也是如此,如果你认为负责任的 AI 是阻碍技术发展的东西
尽可能快地发展技术。你是否仍在考虑其人为因素以及在你达到将你的 AI 系统尽快发布并扩展到 X 人的目标后,你将拥有多少人性?你实际上为人类取得了什么成就?
如果你已经完全将我们从地图上抹去,或者无论是什么,无论潜在的负面结果是什么,一旦它出现。所以我认为这就是区别所在。而且我认为很明显并非每个人都同意。有些人不会认为未来需要为人类做好准备。但我非常相信这一点。通过这么说,你是在说我们人类体验的某些方面
我们想要保留,或者我们想要确保,正如你提到的,未来会保持这些完整。在你看来,那些东西是什么,比如人的方面?是的。我们经常谈论的一件事是摩擦,我知道这与人们在科技领域想要听到的一切背道而驰。但我真的认为这是让我们成为人的东西。所以我们正朝着这个方向前进
高度个性化。每个人都看到了一些非常适合他们的东西,而且速度非常快。他们不必跳过任何障碍就能到达那里。你再也不需要思考了,你再也不会处于具有挑战性的境地了。我认为这是让我们真正成为人的东西。必须处于不舒服的位置,采取一步
处于一个一切都需要更长时间的位置,如果你在不同的国家,你不会说这种语言,你没有翻译应用程序或任何其他东西可以随时使用。能够阅读标志或通过或询问陌生人一些事情并弄清楚。我认为这是一个如此强大和塑造人生的经历。它不一定是那个。它可以是任何东西。但是当你让一切都没有摩擦时,我认为你真的去除了成为人的核心部分。所以是的,
这是另一个机会,即事情可能需要多花一天时间来定义我们如何看待责任是可以的,因为这将维持我们真正关心的事情,我们的社区、我们的存在,无论是什么。所以我真正将这与成为人联系在一起。有很多,但我认为这是一个非常重要的。
你说的话让我想起了我刚刚听到的一个播客。我不记得了,可能是两周前,与这位研究过 10,000 多次濒死体验的医生一起。他说的让我印象深刻的一件事是
很多人在经历濒死体验时,都会有我们通常认为的那种体验。他们进入虚无,只是幸福、平静和你能想到的所有美好的情感和感觉。然后他们回来,回到这个更密集的世界,这里存在冲突。一件事……
医生说的或这个人,我会很快说出名字,告诉你确切的名字。但他说过的一件事是,我们在这个平面上存在并不得不处理冲突的独特性,当你处于这种天堂般状态时,你不会得到这种独特性,因为这一切都是,
幸福和积极的情绪。所以我意识到,我们有冲突,以及你在人类体验中获得的对抗性本质,这几乎就像成为人的美丽一样,能够经历这一切,然后
理想情况下,这就是它变得更花哨和扎染的地方。根据我的个人信仰体系,你通过冲突学习爱,你学会了能够
拥有这些积极的情绪,尽管有所有的对抗。是的。这个概念就像你只有在有黑暗的时候才能体验到光明,你只知道事情什么时候好,因为你也经历过不好的事情。如果你只经历过这种完美策划的、没有摩擦的体验,在那里没有任何事情会出错,你也不需要运用批判性思维,那么
那么它就不是最令人兴奋和有趣的体验。它也不是一个强大的体验,回到那个概念,你并没有真正理解可能会有一些东西阻碍你和你想要的东西。所以当你开始面对它时,你将不会拥有以人为本的方式处理它们所需的工具。也许你有一个应用程序来处理它,但让我们想象一下你的应用程序坏了。如果你整个人生都被这些解决方案,所谓的解决方案,为你可能需要的一切所策划和完善,那么你作为一个真正的人还能处理生活吗?是的。所以我认为这个想法
现在让尽可能多的人有机会,再次回到视角密度,为我们未来的样子做出贡献,以一种保护我们关心的事情的方式来塑造技术,我们真正享受的体验。我认为这现在非常重要。
所以,我刚才谈到的那个人的名字是布鲁斯·格雷森博士,仅供参考。我在蒂姆·费里斯的播客上听到他的。我刚查了一下。它研究了超过一千次濒死体验。我认为我说的是 10,000 次。实际上,只有一千次。这仍然很多。仍然有相当多的人死去并复活。并且思考
这个不是死亡的想法,而是让尽可能多的人参与你试图塑造的结果的意见,并且拥有这种视角密度,这真是太酷了,是的,这个想法也与在这个时代成为领导者有关
对我来说,好奇心是我作为领导者的一个重要组成部分。因为我与许多工程师和许多技术团队一起工作,我处于这样的位置,我
我可以非常好奇,问很多问题,我最终会得到一个结果,并且得到一个更丰富、更密集的理解,因为我已经与很多人交谈过。我真正坐下来倾听,例如,这是如何工作的?你如何处理它?例如,你会如何思考这个问题?这不仅仅是我认为这是最好的解决方案。我想这样做,就像去做一样。我根本不是那样,因为我不了解很多事情。
我知道很多事情,但我有很多事情不知道。所以我真的坚持这一点,我就像,我如何进入这个房间,假设我什么都不知道,然后带着更强的理解离开这个房间,因为我已经花时间与所有这些不同的人交谈了。所以我认为。
现在,我们真正需要的是一种建立在好奇心基础上的领导力,以及试图与许多不同的人互动。除了视角密度之外,我们的另一个价值观是智力慷慨。
我认为这是这个新时代中另一个巨大的因素,当然。如果你知道一些事情,能够与他人分享,如果你在一个空间中,并且有机会将其他聪明的人带入房间并让他们分享他们正在做的事情,那将是巨大的。这也是我非常喜欢 MLOps 社区聚会的原因。像,
我只是让大家聚在一起,然后说,嘿,你如何看待这个问题?你在做什么?这是舞台。谈谈它。现在我们都可以向你学习。我认为这是我们所处的这个时代中如此具有变革意义、重要的部分。是的,这是一个很好的借口,能够与令人难以置信的人交谈和相处。你了解了我为什么做这个播客的诀窍。我可以与像你这样的人交谈。是的。
完全正确。我也会向你的通讯稿致敬。我认为这太棒了。更多的人应该订阅它。因此,如果有人想订阅,我们将在描述中留下链接。我认为你做得很好。感谢你来到这里,Allegra。是的。非常感谢你的赞扬。我们的通讯稿刚刚满一个月,我为此感到非常自豪。我对此感到非常高兴。这真的是……
最令人兴奋的一年的研究和智力慷慨。非常感谢你给我这个机会。