AI will eliminate some jobs while creating new ones, similar to past industrial revolutions. The key difference is that this transformation will occur within a 10-year period, much faster than previous revolutions, which spanned multiple generations. This rapid change necessitates proactive measures to reskill and upskill workers to transition them into new roles.
Dr. Dobrin emphasizes the importance of transparency and trust in workforce transformation. He suggests that companies should openly communicate with employees about job changes, provide time and resources for upskilling, and offer support for transitioning into new roles. For example, during his tenure at Monsanto, he allocated 20% of employees' time to reskilling and provided certifications, resulting in 60% of employees retaining their jobs and others transitioning smoothly.
Generative AI models often fail to provide accurate attribution for content, with 46% of references being completely wrong and 47% being partially incorrect. This undermines academic integrity and denies authors proper recognition and compensation. Dr. Dobrin suggests leveraging Web3 technologies, such as blockchain, to create immutable records of ownership and attribution, enabling a token-based economy to compensate authors and ensure proper referencing.
The EU AI Act introduces stringent regulations, particularly for high-risk AI use cases. Companies are concerned about compliance, as the definition of high-risk use cases remains unclear, and there is a lack of certified auditors for many standards. Additionally, companies must navigate supply chain risks, ensure proper data collection, and secure indemnification against potential litigation related to AI models.
AI models often reflect the cultural biases of their developers, primarily from the US and China. This can lead to 'technological colonialism,' where these cultural perspectives are imposed globally. Dr. Dobrin warns against embedding cultural constructs into AI systems, as bias is a human construct, and algorithms must be designed to account for and mitigate these biases to ensure fairness across diverse cultural contexts.
Dr. Dobrin believes the current pace of AI innovation is unprecedented and concerning. Unlike previous industrial revolutions, which unfolded over decades, AI's impact is occurring within a 10-year window. This rapid change leaves little time to address human impacts, technological limitations, and ethical concerns, such as hallucinations in AI models and the environmental impact of energy-intensive AI systems.
By 2030, Dr. Dobrin envisions a shift away from traditional computer interfaces toward conversational and wearable technologies. He predicts that VR, AR, and AI-driven wearables will dominate how people interact with technology, making devices like laptops obsolete. This transformation will be driven by advancements in AI and the integration of immersive technologies into everyday life.
Technological colonialism refers to the imposition of cultural biases and perspectives embedded in AI models developed primarily in the US and China onto the rest of the world. This can lead to the global dissemination of specific cultural norms and biases, marginalizing other perspectives. Dr. Dobrin highlights the need for diverse representation in AI development to avoid perpetuating this form of cultural dominance.
那么,我们该如何照顾那些即将失业的现役员工呢?因为确实会有人因为人工智能而失业。人工智能会淘汰一些工作,创造新的工作。句号。工作会消失,新的工作会产生。这就是工业革命的运作方式。早上好,下午好,或者晚上好,这取决于你在哪里收听。
欢迎收听人工智能与未来工作播客,第309集。我是主持人丹·图钦,PeopleRain的首席执行官,PeopleRain是一个面向IT和人力资源员工服务的AI平台。我们的社区正在壮大。我经常被问到如何与其他听众见面。为了实现这一点,我们在Beehive上发布了一个时事通讯,我们每周分享一些没有出现在播客中的见解和技巧,以及了解社区的机会。
我们将在节目说明中分享该时事通讯的链接。当然,它不是垃圾邮件。我们不会对您的联系信息做任何处理,但请加入社区。它就在那里等着你。如果您喜欢我们的节目,请告诉您的朋友,并在Apple Podcasts、Spotify或您收听的任何地方给我们点赞和评分。
如果您留下评论,我可能会在接下来的剧集中分享,就像来自纽约皇后区的Vitaly的这条评论一样,他在上下班途中在地铁上收听,他说他最喜欢的剧集是与康奈尔大学和南加州大学的约翰·博德罗博士一起讨论组织的未来以及改进团队绩效背后的科学的剧集。这是一次精彩的对话。谢谢你,Vitaly。
在这个节目中,我们每周都会从人工智能思想领袖那里学习。当然,额外的奖励是,你会得到一个AI趣闻,它在这里。Amanda Height在《自然在线》杂志上撰写了关于AI隐藏风险的文章。
她说:“虽然生成式AI工具已被学术界广泛采用,但用户可能没有意识到其固有的风险。聊天机器人通常不会在其输出中引用原始内容。因此,作者可能会丧失了解其作品如何被使用以及检查AI陈述可信度的能力。”
今天的学者在指导其数据的使用方面几乎没有办法。通常情况下,研究成果是开放获取的,起诉滥用已发表的论文或书籍比起诉音乐或艺术作品更具挑战性。
在学术界等领域,研究成果与职业成功相关联,失去归属权不仅会剥夺人们的报酬,还会阻止作者能够为其作品的滥用辩护。我的评论是,唯一前进的道路是一种新的,我称之为社会契约的东西。
我们需要培养对AI生成内容所有权的意识,并始终质疑我们声称的所有内容的来源和保管链。轻松获取半真半假的信息并不能免除我们对自身行为承担责任和诚实守信的义务。显然,这是我热衷的话题,我们将继续探讨这个问题。
当然,我们会在今天的节目说明中链接到这篇完整的文章。现在让我们转向今天的对话。Seth Dobrin博士是IBM有史以来第一位全球首席AI官。他是AI商业界最受尊敬的权威人士之一。他最近出版了《面向以人为本的未来战略人才文化的AI智商》一书,内容是关于将AI正确地融入企业文化的方法。
他关注我们每周讨论的许多主题,负责任的AI,AI造福人类,以及如何调和AI的热情和风险,
Seth博士还是Quantum AI的首席执行官,Quantum AI是一家战略咨询公司,也是One Infinity Ventures的创始人,该公司专注于投资建设负责任AI公司的企业。他曾担任负责任AI研究所所长,并获得亚利桑那州立大学分子与细胞生物学博士学位。加油,太阳魔鬼队。我最近在费城的一次CIO活动上遇到了Seth博士。感谢Hunter Moeller将我们两人都请上舞台。
Seth博士的演讲点燃了整个房间,我当时就知道你必须认识他。事不宜迟,Seth,我很荣幸欢迎你来到“人工智能与未来工作”节目。让我们从让你分享更多关于你辉煌的背景以及你如何进入这个领域开始吧。
好的。听起来不错。再次感谢你的邀请,Dan。非常高兴来到这里。然后在我自我介绍后,我想带我们偏离正题。我想回到你提到的那篇文章,因为我对那篇文章有很多话要说。但我认为你已经做了很多我的介绍。所以我从我攻读博士学位就开始从事AI领域的工作,人们可能会挠头说,分子和细胞遗传学与AI到底有什么关系?但在90年代中后期,
在人类基因组计划的后期阶段,是机器学习、AI从计算机科学和数学领域转向现实世界应用的两个主要领域之一。所以最初的两个领域确实是遗传学/基因组学和天体物理学。所以我参与了
开发一些用于分析遗传数据的大规模分析算法,这些算法被用于像23andMe这样的分析以及使用这种技术识别疾病。我在初创公司、学术界、研究机构和包括我在2006年加入孟山都公司在内的财富500强公司中应用了同样的方法。
我在孟山都的前五年,领导了他们的产品开发管道,也就是所谓的分子育种,开发了一种方法,将其从研究项目转变为工业规模的项目,这现在是农业项目或大规模农业育种的工作方式。即使是在转基因之外,无论你对转基因怎么想,这就是育种
育种的一般工作方式,即使是小规模育种也是如此。然后,在通过这种方式为公司创造数十亿美元的价值后,我转而开始将其应用于一般的业务问题。那时我从将这些工具应用于
科学问题转向一般业务问题。在接下来的五年里,我和我的团队为孟山都创造了大约200亿美元的价值、成本节约和新的收入。所以这确实是这本书的基础,你提到的那本书,直到人们开始谈论它,我才意识到它有多绕口。但你不是第一个对它感到绕口的人。
在2016年,我离开孟山都加入IBM,成为他们有史以来第一位全球首席AI官,并采用了这本书中提到的这种以人为本的方法,开始将其应用于IBM的转型,同时也与IBM的许多全球最大客户合作,帮助他们
做我们在孟山都所做的事情,利用数据和AI进行转型。我还负责IBM公司所有的人工智能工作,包括其人才方面的工作。所以我们如何招聘人员,我们寻找什么,
基准测试等等,整体参与度。所以当时在45万人的组织中,非常公平地平衡了各方面。例如,我认为当时IBM每月有7.5万名数据科学家。实际上并没有那么多,但这就是有多少人拥有这个职位名称。
那么,我们如何将这个数字真正减少到实际有多少人,以便我们在对他们进行基准测试时,他们才是真实的?所以在2022年,我离开了IBM,创办了自己的咨询公司。然后在今年早些时候,我创办了你提到的风险投资基金One Infinity,专注于投资负责任的AI。这是一家价值5亿美元的基金,投资于早期到成长阶段的公司。
你在回答的开头暗示了你对AI和学术界的一些想法。所以是AI和归属。所以参考是AI和归属。所以如果你看看生成式AI,大约一年前,有一篇论文讨论了生成式AI模型中的一般归属问题。所以如果你要让这些生成式AI系统为你提供参考文献,46%的时间,
参考文献完全错误,与回复无关。所以即使它能给你提供参考文献,46%的时间,归属也会与它完全无关。47%的时间,主题可能是正确的,但参考文献是错误的。这意味着只有7%的时间归属才是正确的。
所以即使他们提供了归属,也是完全错误的。从那以后,情况有所好转。据我所知,没有人做过后续论文。
但还有一个更大的问题。即使你得到了归属,这些模型也无法进行归属。然而,确实存在一些技术能够实现你建议的Dan,即我们如何让人们拥有自己的归属?这与一些风投公司(包括我们的基金)开始投资的东西的交叉点有关,即Web3和AI的交叉点,
在这里,你开始围绕有价值的东西创造经济。在这种情况下,它将不是知识,对吧?学术知识。它将是像OpenAI或Anthropic或其他模型构建者这样的公司将如何与这些论文互动?他们将如何引用它们,以及他们将如何进行补偿?它不一定是金钱上的补偿。他们还有其他方法可以补偿这些作者。
他们将如何引用它们,以及他们将如何为作者提供某种好处?这些都存储在区块链上,所以它是不可变的。所以有很多交叉点,有很多机会创造由代币经济驱动的社区,很像区块链,但它不是加密货币。它不像比特币,但它不是比特币。它是一种由独立社区驱动的不同类型的经济。所以有一些技术你可以实际构建。
来推动经济,帮助解决这个问题。我不知道这是否能解决问题,至少在信息所有权方面,可以阻止这些公司仅仅获取信息。并且仍然是公开的,对吧?这样你就可以满足资助机构的要求。所以美国的NSF和NIH,英国的版本,许多资助机构都要求你公开你的信息。
所以现在这些公司可以随意获取信息,而无需提供适当的归属。你如何平衡这两者?像Web3和AI经济的这种交叉点可以帮助推动这一点。所以将归属存储在链上可以解决LLM幻觉归属的问题,但你仍然会有问题。是的,不一定。好的,因为我设想的是作者,人类作者,通过某种Web3市场声称
该内容的所有权,然后将其放入链中,LLM必须参考区块链才能了解所有者。我本来想问的问题,我很想知道你的看法是,那么你如何验证声称拥有所有权的人的真实性呢?是的,作者会自己把它放在链上。
如果是非作者声称拥有该内容的所有权怎么办?或者你可以让NCBI把它放在链上,对吧?你可以让这样的人把它放在链上,对吧?一个值得信赖的权威机构,一个第三方。一个值得信赖的权威机构把它放在链上,诸如此类。所以模型幻觉是模型架构中固有的。所以仅仅在链上拥有某些东西并不能阻止它产生幻觉。拥有RAG架构,检索增强生成。但至少对于归属问题。
对任何事情。没有什么能消除幻觉,对吧?幻觉是架构中固有的。所以除非我们转向新的架构,否则幻觉就在这里。你可以将它们减少到接近于零,但你永远无法摆脱它们。但这将有助于归属的所有权,并且可以帮助验证归属。所以这只是更广泛的负责任AI方法的一个方面。
在你旅行中的谈话空间,我知道你经常旅行。当谈到负责任的AI这个话题时,企业领导者们都在谈论什么?是的,我的意思是,有几件事。所以今天最重要的是监管,对吧?所以欧盟AI法案刚刚发布,
几个月前,它已经成为法律。它有一个时间表。它仍然有点模糊,这意味着要遵守它。甚至什么是高风险用例也仍然有点模糊。所以对此存在担忧。我认为有一些关于什么是高风险用例的明确案例。这意味着要遵守它?
我们仍然需要弄清楚,但我认为可以肯定的是,你需要进行审核。你需要进行ISO审核或其他审核。所以我认为四个必需审核中的三个将由ISO进行。根据ISO标准,欧盟仍在确定你将根据什么进行审核。
挑战在于,目前除了就业和自动化贷款之外,没有任何其他审核机构。所以有很多用例没有经过认证的审核员。还有几年时间可以担心这个问题,但是你如何进行审核呢?而这些只针对一个标准。这仅仅针对42001。其他标准呢?你如何进行审核?所以仍然有很多困惑,我该如何开始遵守?
因为这是一个大型的第三方审核,它是监管的重要组成部分。很多人担心,好吧,如果我要做这些,我该如何让我的团队加入?因为当你考虑我们正在构建这些模型时,我需要从我的团队那里获得很多信息。
我该如何让我的团队开始收集所有这些信息?是否存在可以帮助我收集所有这些信息的工具?因为我的团队在构建模型时需要这样做。当我购买模型时,我该如何获取所有这些信息?我的供应链有多容易受到攻击?我需要担心我的供应链,我的AI供应链吗?我对此负责吗?我需要将哪些类型的赔偿作为其中的一部分?
所以围绕监管的事情非常非常重要。我认为我的回应,特别是关于赔偿,是,
我们不知道特别是今天的生成式AI会带来什么责任。我们知道大多数模型至少违反了现有的每个数据保护法规。我们不知道程度如何,因为它还没有被诉讼。所以我不会购买任何这些生成式AI模型,除非有完全的赔偿。大多数模型至少从这个角度来看都是如此。但我建议谨慎对待任何不赔偿你
诉讼和类似事情的供应商。但大多数模型无论如何都会提供赔偿。是的,我认为这些都是重要的事情。监管一直是今天大多数大公司最关心的问题。然后许多公司也在问,我该如何使用生成式AI?但这绝对是错误的答案或现在应该问的错误问题。因为你经常国际旅行,我很想知道你对欧盟AI法案之外的看法,但
文化差异在态度方面,以及对AI地缘政治的评论。是的。很有趣,你飞遍世界各地,与不同的公司交谈,每个人都想了解谁在AI方面领先,哪个国家领先。
你知道,这真的不是哪个国家领先。它确实是。甚至也不是哪个行业领先,尤其当你开始关注生成式AI时。它是好坏参半的,对吧?这里有一家公司,那里有一家公司,因为从公司的角度来看,它非常具有文化性。它甚至不是从世界某个地区来看的文化。目前是
公司的文化,因为我们还处于游戏初期,对吧?哪些公司非常擅长采用?哪些公司非常擅长变革?哪些公司非常了解如何做到这一点,并且能够非常快速地采用新技术,并且愿意快速采用新技术?所以我们甚至还没有达到任何一个行业或任何一家公司更好,或者任何一个国家更好的阶段。就地缘政治而言,
有几件事正在发生。一个是,我认为有几件事是相互关联的。一个是生成式AI将影响就业。我认为从长远来看,在十年内,我认为这是普遍共识,我们将看到就业岗位的增加。我们正处于工业革命中。这通常是发生的事情。我们过去已经看到过这种情况。工业革命会产生新的就业机会,无论我们在其中时怎么想。
如果你看看过去,我们总是认为工作会消失,我们最终会创造更多工作。我认为我们现在经历的事情与过去发生的事情之间最大的区别在于,过去的工业革命跨越了三到五代人。一代人是15到25年。所以你经历了多轮人员进入和离开劳动力市场以进行过渡,工作离开劳动力市场,以及新的工作岗位的创造。关于这场工业革命的普遍共识是,它将在十年内发生。
那么,我们该如何照顾那些即将失业的现役员工呢?因为确实会有人因为人工智能而失业。人工智能会淘汰一些工作,创造新的工作。句号。工作会消失,新的工作会产生。这就是工业革命的运作方式。我们该如何帮助那些即将失业的人,并帮助他们找到新的工作?
我认为这就是你看到世界某些地区做得比其他地区好得多的地方。所以我现在在这里,我在利雅得。沙特阿拉伯有一个叫做“沙特化”的东西,在沙特公司中,他们被要求对所有员工进行AI方面的再培训和技能提升。
这非常强大,因为随着他们工作的消失,如果他们正在让工作消失,他们的员工现在拥有未来的技能,是的,他们之前做X、Y或Z的工作消失了。所以是的,他们以前是律师助理,只是选择了一份工作。这可能是律师助理中的一部分人将要消失。他们以前是律师助理。好吧,现在他们可以做其他工作,仍然可以利用他们的教育,
但他们现在可以做其他他们接受过培训的工作。我还不知道那是什么工作,但他们知道如何与AI互动。他们可以有效地做到这一点,他们现在可以做其他事情,并且仍然是社会中有生产力的一员。因为沙特阿拉伯要求公司投资于他们的员工。你在世界其他一些地区也看到了这一点,政府要求公司投资于他们的员工。因为公司是那些从工业革命中受益的公司。
如果你看看麦肯锡和其他公司所说的,你会看到到2030年,GDP将增加数万亿美元。如果我们不投资于我们的员工,如果由于工作岗位的消失而导致大规模失业,我们将不会看到这数万亿美元的GDP。因为不会有人,我们将看到失业,人们将不会参与经济。对我们来说,对员工进行再培训和技能提升是公司的利益。
但市场并没有建立起来这样做。上市公司没有动力投资于他们的员工。
他们有动力尽快获得成本节约并创造这些成本节约。如果我们想这样做,我们需要改变激励机制。所以这里存在冲突,对吧,就今天市场中的激励机制是什么而言。所以这是一件事。我会在这里停一下,看看你是否有什么想谈论的,然后再继续下一个话题。是的,我没有让你摆脱困境,因为这就是它变得有趣的地方,对吧?所以
我们说,获得GDP增长的益处。这是来自生产力提高、盈利能力提高、生产力提高。生产力意味着工作岗位消失。没错。这就是我要说的。所以这是工作岗位消失的替代指标。让我们以律师助理为例。你说得对,这需要技能提升和再培训。所以我认为谈话中困难的部分是告诉雇主
你的团队的生产力将提高30%。所以雇主听到的是,太好了,我可以将我的员工人数减少三分之一。而员工听到的是,我以为这会创造就业机会。会为我创造什么工作?所以如果我是那个律师助理,我知道我被困在了十字路口,我该如何应对这种转变?对。所以我认为,这与
转型有关,对吧?所以这与良好的转型有关。我转型公司的经验是,转型公司最好的方法很大一部分是信任。而建立这种信任是诚实。所以当我开始在孟山都进行转型时,我们正在彻底改变工作。我把我团队的人召集在一起,我说,六个月后,你们的工作都不复存在了。
将会有四项新的工作出现。我会给你工作时间。你20%的时间将专门用于适应这四项工作中的一项。我会让每个人都注册Coursera。我会支付认证费用。你的工作是选择其中一项工作,获得所有认证。如果你做到了,工作就是你的了。如果你没有做到,我会给你一个补偿方案。如果你不想做,我会为你做推荐。我会帮助你在公司内外找到另一份工作。
这种透明度让每个人都知道自己的处境。每个人都知道自己的责任是什么。人们对失去工作几乎没有担忧,因为人们知道最终结果是什么。最终结果是60%的人保住了工作。大约30%的人在获得补偿方案之前就离开了。大约10%的人获得了补偿方案。
而这30%的人,我帮助他们找到了工作。我的团队帮助他们找到了工作。他们非常高兴,因为他们不是有一天突然没有工作了。事实上,即使是那10%获得补偿方案的人,他们也知道自己会获得补偿方案。事实上,他们等待找到工作,因为他们想要补偿方案。
所以这种坦诚和诚实对待你的团队会有所帮助。所以如果你去找那些律师助理,你对他们说,看,这是你需要的技能。你们中有30%的人将失去工作。让我们帮助你提升技能。让我们帮助你找到新的工作。让我们帮助你弄清楚你如何在未来融入劳动力市场,无论是在这里还是在其他地方。这与我们将提高生产力,对不起,你自己解决的谈话完全不同。
因为这些人一直是你走到今天的原因。公司是由人组成的,对吧?我们必须记住,他们不是资源,他们是人。你必须像对待人一样对待他们。我认为你的职位越高,我们越会谈论人和组织作为资源。我们必须提醒自己,他们不是资源,他们是人。
非常令人满意的答案。顺便说一句,这超越了,这与AI无关。这只是关于做一个以人为本的领导者意味着什么。这很好,大概在孟山都,那是在AI之前,对吧?是的,这是……好吧,这是机器学习的开始。好的,你提到之前的工业革命需要所谓的几代人才能发挥作用。多代人。多代人,是的,我的意思是。三到五代人。是的,它们跨越了几十年。
是的,当然。我们谈论第一次工业革命,从1760年到1830年,70年。而我们现在。
在对全球人口毫无戒心的情况下,推出ChatGPT还不到两年。我们已经在对幻灭的低谷感到过度焦虑。它没有足够快地回报我们的投资,我们对基础设施进行了过度投资,
所有这些担忧是否为时过早,或者是否有根本不同的东西值得所有混乱?我认为有一些根本的不同。我的意思是,两天前有一篇文章说我们已经度过了炒作周期。我们花了七年时间才度过云计算的炒作周期。所以这其中有一些根本的不同。这项技术的进步速度前所未有。你同意我们已经度过了炒作周期吗?
是的,我同意。但我认为这也有点令人担忧,原因有几个。我认为这令人担忧的原因是我们讨论过的那些原因。人们没有认真对待人类的影响。还有一种更全球化的文化影响,我称之为技术殖民主义,我们可以讨论一下。
有一种技术,在大多数人不知道的架构中存在固有的技术问题,我在我的时事通讯中广泛地写到了这些问题。这非常令人担忧,供应商会来,然后轻描淡写地说,我们的技术可以完全消除它,而实际上没有任何技术可以完全消除它。所以这三件事加在一起,
非常令人担忧的是我们进展如此之快,因为没有时间解决这些问题。初创企业生态系统没有时间解决这些问题,因为我认为初创企业生态系统推动了一些创新,这些创新要么取代一些更大的公司,要么被更大的公司收购以解决其中的一些问题。
所以这种创新有助于解决那些被大公司吞噬掉的问题。而根本没有时间这样做,因为这一切发生得太快了。所以这让我有点担心。我质疑我们现在所处炒作周期的原因是,这项技术滑稽地不成熟。我的意思是,在很多方面,你提到的幻觉是一种向量,但它们也很昂贵,而且
它们非常耗能。它们在能源效率方面非常低。我们主要受到限制,你知道,愚蠢的,文本框界面。他们对世界没有任何经验意识。所以对我来说,你知道,在我们可以称这项技术为测试版之前,还有很多成熟的工作要做。然而,你知道,我们怎么能
浪潮已经达到顶峰了吗?这是我的观点。是的,我的意思是,我认为成本方面存在竞争。我认为成本不是问题。我的意思是,我认为成本将会,是的,成本方面存在竞争。我认为,所以我并不担心成本。
能源,竞争,三个供应商的成本几乎都在消耗能源。我认为我把能源问题比作石油危机,对吧?我们已经缺油50年了。我们仍然有很多石油。
这将通过技术、新的芯片得到解决。当然存在环境问题,无论是电力还是开发新芯片,因为微处理器是出了名的不可回收的,对吧?所以,无论我们是否丢弃旧的GPU,我们都无法回收它们,因为它们充满了稀土金属,或者
无论如何,都存在迫在眉睫的环境危机。所以这些绝对是问题。技术问题与幻觉有关,但也有一些其他问题与之相关。而文本框,我认为这是它的一大优势。你不需要一个花哨的界面。你可以和这些东西对话。
我想说,在接下来的几年里,我们可能会摆脱界面。我认为你会看到很多对话界面。所以我实际上会说这是一个特性,而不是技术的缺陷。所以我设想一个世界,在这个世界里,这些技术的真正前景在于医疗领域,在医学领域,
军事工业综合体,真正意义上的全球变暖,疾病的治愈方法,我觉得这些事情将对生活产生有意义的影响,远远超出写关于猫的俳句或编辑营销文档。所以当我提到浪潮已经达到顶峰时,我想到的是
这项技术对社会和人类的所有积极影响,我们还没有开始做更大的梦想。是的,我认为,在我的,这只是我的意见或我的观点,我想,大多数两用技术,人工智能是一种两用技术,
你可以用它们做一些非常伟大的事情,你也可以用它们做一些非常可怕的事情。我认为人工智能也不例外,对吧?你可以用人工智能做一些令人难以置信的困难的事情,也有一些令人惊奇的事情你可以用它来做,对吧?你列举了
我认为人工智能可以做一些非常好的事情。我认为它可以治愈疾病,帮助治愈疾病。我认为它实际上可以帮助减少或消除许多影响人类福祉的关键决策中的偏见。我将它们定义为人类的健康、财富或生计。偏见是人为的,对吧?偏见是由人类过去的决策造成的。我们可以开发出考虑这一点的算法。
并防止系统产生那些存在于我们所做的事情中的偏见。无论我们是否愿意,我们都有偏见,对吧?这只是人性的一部分。算法不是,数学不是有偏见的。所以人工智能实际上可以
消除这一点。现在,偏见是一种文化建构。在美国有偏见的东西与在中国有偏见的东西不同,与在印度有偏见的东西不同,与在非洲和南美洲有偏见的东西不同。因此,我们必须非常非常小心,不要将我们的文化建构强加于世界其他地区。因此,我们必须小心不要将
我们的文化视角融入这些模型中。
因为那样我们就将我们的文化强加于世界其他地区,这就会涉及到我暗示的技术殖民主义的整个概念。这下面还有很多东西,因为这些模型中的大多数,如果不是全部的话,绝大多数都是在中国和美国建造的。所以基本上,现在有两种文化视角强加于世界其他地区。而主要开发这些模型的人主要是中国男性、印度男性、白人男性和印度男性。
我正在阅读你关于技术殖民主义的观点的通讯。如果我能说服你回来,我想再和你谈谈这个话题。我认为这是一个非常重要的话题,我很快就会让你摆脱困境。所以我没有时间来解释它,但我真的,我想把这个记下来。这是一个非常重要的概念。我认为你做得很好地阐述了这一点。
在我让你摆脱困境之前,你必须回答我最后一个问题。当然。所以我们正在谈论创新的快速步伐。假设塞斯和丹在2030年回到这里10年,我们正在进行这次对话的一个版本,我知道根据目前的步伐,这似乎是永恒的。但是10年后,有一件事在工作中有所不同并且司空见惯,而今天看来像是科幻小说?
是的,我的意思是,我认为这是最难回答的问题。我的意思是,每个人都会问,人们通常会在五年内问这个问题,我说这不可能回答。10年更是无法回答。但我认为我们刚才谈到了它,对吧?我认为我们与技术互动的方式将大不相同。你知道,苹果公司已经开始通过Vision Pro做到这一点,你知道,我现在在我的笔记本电脑上。我认为这将成为过去的事情。
我认为会有更多对话界面。将会有更多VR、AR界面。我只是认为,所有这些都将由人工智能驱动,对吧?我的意思是,它将是可穿戴设备,将是你与某种世界互动的方式。它不会是电脑。
你知道吗,从现在到2034年,你我将有很多时间来解释这些话题。这是一次精彩的谈话。感谢你的参与。我知道你那里很晚了。感谢你这样做。我希望你告诉听众,他们在哪里可以了解更多关于你和你的伟大工作的信息?是的,是的,你可以访问我的领英。只需在领英上搜索塞斯·多布林博士。我会出现的。或者你可以访问我的子堆栈SiliconSansNews.com。
并订阅它。免费获得一个月的所有内容。如果你想查看旧内容,你必须订阅。订阅费用不到一杯咖啡。
是的,很高兴在领英上与我联系。再次感谢你的邀请,丹。非常感谢。我很高兴。感谢你这样做。这本书实际上是一个绕口令,人工智能智商,面向以人为本的未来。塞斯,怎么样?我说对了吗?完美。是的,非常好。出去买这本书吧。感谢所有听众的收听。一如既往,我是你们的主人,来自PeopleRain的丹·图钦。
当然,我们下周将邀请另一位令人着迷的嘉宾。