我的早晨例行公事是这样的:我醒来,按几次贪睡键,最后起床,给自己泡一杯茶。茶可能是最重要的部分。然后我端着茶坐下,看看推特上大家都在谈论什么。是的,我仍然称它为推特。今年2月,我起床,泡了茶,开始滚动浏览。就在那时,我看到谷歌在其名为Gemini的聊天机器人中推出了一款AI图像生成器。
推特上炸开了锅。人们称Gemini各种各样的东西。种族主义者、觉醒者、有偏见的,以及介于两者之间的一切。问题是,每个人似乎对正在发生的事情都有完全不同的看法。那么究竟发生了什么?好吧,谷歌在Gemini中推出了他们的图像生成器,人们开始使用它。
用户@endwokeness的初始推文中显示了Gemini对一堆不同提示的响应截图,范围从“美国的开国元勋”到“维京人”到“教皇”。虽然你可能期望这些提示中的每一个都会产生大部分是男性,而且大部分是白人男性的图片,但Gemini会证明你是错的。
Gemini生成的开国元勋、维京人和教皇是有色人种,在教皇的情况下,其中一些是女性。好吧,这显然是一个相当严重的史实不准确问题。其他用户分享了Gemini对其自身提示的响应截图,其中一些实际上非常糟糕。
最令人震惊的是什么?有色人种身穿纳粹制服的照片。绝对不是我们想要的这种多样性。然后谷歌介入。该公司高级副总裁Prabhakar Raghavan在一篇博文中写道,谷歌团队试图领先于,“……我们过去在图像生成技术中看到的一些陷阱,例如创建暴力或色情图像。”换句话说,他们试图纠正AI偏差。
这已成为AI伦理圈中一个主要讨论的话题。但这导致了激怒所有人。对一些左派人士来说,这是在推进一种视而不见压迫历史的“色盲”身份政治。对一些右派人士来说,这是过度代表少数群体,并在推进某种阴谋论式的“大科技觉醒”议程。事实上,总是喜欢挑衅的埃隆·马斯克称Gemini既觉醒又种族主义。真是难以理解。
每个人都在大喊系统中存在的偏见。但这样做,他们最终暴露了自己的偏见。换句话说,他们看待这些AI系统输出的视角。我是Bilawal Sadu,这是TED AI Show。在本期节目中,我们将讨论一个棘手的问题,即AI中的偏见。想要一个具有无与伦比的强大功能、速度和
控制力的网站?试试Bluehost Cloud,这是Bluehost的新型网络托管计划。由WordPress专家为WordPress创建者打造。凭借100%的正常运行时间、令人难以置信的加载时间和全天候的WordPress优先支持,您的网站将以闪电般的速度实现全球覆盖。借助Bluehost Cloud,无论您的网站流量有多大,都能轻松应对流量激增。此外,您还可以自动获得每日备份和世界一流的安全保障。立即访问Bluehost.com开始使用。
所以,Gemini生成的一些图像确实很糟糕。我不是在为这些图像辩护。但我明白他们想做什么。从本质上讲,他们最终纠正了像DALI、Midjourney和Stable Diffusion这样的AI图像生成器过去犯的一些重大错误。例如,在2023年末,一组大学发布了一份关于他们在文本到图像生成器上的研究结果的联合研究报告。
他们发现,当他们提示外科医生和外科实习生的图片时,他们得到了一些令人不安的结果。绝大多数图像是穿着手术服的白人男性,这实际上并不反映当今外科医生的构成比例。
《华盛顿邮报》对AI生成图像中偏见的另一项调查显示了类似的令人不安的趋势。“穆斯林人民”的提示显示戴着头巾和其他头饰的男性。“有吸引力的人”的提示只产生了年轻浅肤色人的照片。“富有成效的人”的提示产生了坐在办公桌旁的男性照片,大多数是白人。
现在,关于AI中偏见的讨论很多,从输出中的缺陷到训练数据中的缺陷。在像Gemini丑闻这样的案例中,我们冒着历史不准确和误导的风险,这无疑是真实存在的问题。在像我刚才提到的研究和调查这样的其他案例中,AI中的偏见可能会继续延续实际上并不反映现实的有害刻板印象。所以如果每个人都同意AI中的偏见是一个问题,那么为什么没有人解决它呢?
为了帮助我们解开这个谜团,我和加州理工州立大学哲学教授、该大学伦理与新兴科学小组主任Patrick Lin坐下来进行了交谈,该小组处理AI和预测性警务、自动驾驶汽车的未来以及太空网络安全等主题。他长期以来一直在研究技术的伦理问题,并且一直在思考AI中的偏见,它的来源以及它如何影响我们的日常生活。
所以当我们说AI的伦理时,我们谈论的是一个巨大的、几乎永无止境的话题,对吧?你能为我们的观众解释一下为什么AI伦理是一个如此广泛的话题吗?
所以当我们谈论人类伦理,也就是你的伦理和我的伦理时,我们可以这样做,因为我们喜欢认为我们有自由意志,我们可以做出选择。我们做出的一些选择是合乎伦理的、不合乎伦理的或两者都不是。但是当你谈论机器时,有些人会正确地指出,嘿,它们不是道德行为者。他们不知道自己在做什么。那么他们怎么能遵守任何伦理标准呢?对。
所以很快,一开始,我会说这是一个错误的解释,对技术伦理或AI伦理的错误理解。
伦理可能与技术作为代理者关系不大,而是与技术的开发方式有关。它可能与技术开发人员的伦理有关。它也可能是技术用户的伦理。它是关于一个由开发人员、用户、利益相关者、非故意利益相关者、环境利益等等组成的整个生态系统。
说到AI,我的意思是,在非常高的层面上,你可以认为AI是决策过程的自动化,对吧?所以AI决定,好吧,我看到的这张图片是什么?我看到的这段文字是什么?它对预测下一个单词做出决定,对吧?所以它是一种决策引擎。
因为它是一个决策引擎,所以它可以用来取代决策者。如果AI可以融入社会和许多这些决策角色,那么它已经涉及无数领域,对吧?
对。农业、化学、教育、战争中的AI。很难想象AI不能应用于哪个领域。这意味着,你知道,你实际上是在看待AI伦理的整个宇宙中潜在的伦理问题。这是一个很好的观点,特别是随着AI渗透到所有这些垂直领域和领域。正如你所说,这种偏见表现出来的表面积也非常非常广阔。对。
所以今天你和我将讨论AI中的偏见。这里面有很多有趣的例子,我们只遇到了一些。一个是面部识别中的种族偏见,对吧?一些面部识别系统已被证明对肤色较深的人的错误率更高,可能导致错误识别,对吧?
亚马逊在发现其AI招聘工具会惩罚包含“女性”一词的简历以及降低所有女子学院毕业生的等级后,取消了该工具,这反映了训练数据中的性别偏见。你在AI领域遇到的一些具体的偏见例子是什么?
如果我们从当今的技术开始,也就是LLM,比如ChatGPT和AI写作工具或聊天机器人,我们已经可以在它们的输出中看到偏见。我在想谷歌Gemini最近的失败,它想使纳粹和美国开国元勋的种族多样化,对吧?是的。
都是白人?但是如果你认为,等等,反偏见、反歧视意味着你必须混合种族和性别,那么这就是你得到一些假阴性的方式。
但我认为重大的例子仍然与你提到的招聘中的AI偏见有关,但也包括银行贷款和刑事判决中的AI偏见。我甚至会包括像AI警务这样的事情。所以这些可能是生死攸关的决定。
即使是银行贷款决定也可能是生死攸关的决定。如果你被拒绝抵押贷款,那可能意味着你失去你的房子。你可能会无家可归。而且,你知道,无家可归的人往往比其他人寿命更短。对。所以这些都是重大而严重的决定。即使AI没有专门寻找性别问题,
种族、年龄,它仍然可以从其他数据中推断出很多这些信息。例如,一个银行AI,你知道,做出贷款决定可以被编程或训练来忽略种族,对吧?忽略种族。但是
它仍然可以在其输出中、在其影响中进行歧视。例如,它可能会说,它可能会,你知道,鉴于这些交易数据,它可能会说,哦,你知道吗?来自某个邮政编码的借款人违约率很高。所以我们只是不向该邮政编码的人提供贷款。但猜猜看?事实证明,这个邮政编码充满了少数民族社区。好吧。所以它是种族的替代物,具有歧视性。
对于几乎任何给定的AI应用程序,你都可以想出某种类型的偏见。我的意思是,我们谈论医疗保健AI。如果医疗AI主要针对白人患者进行训练,那么它可能会误诊某位非洲裔、亚裔或犹太裔人士,对吧?
顺便说一句,这不仅仅是白人与其他人的问题。我的意思是,如果你看看中国的面部识别项目,例如,他们主要用中国人的脸来训练他们的AI,他们很难识别区分白人的脸。仅仅是因为白人的脸在他们的数据集中代表性不足。
所以AI并非天生就具有单向的种族主义倾向。这取决于训练数据。绝对的。它也提出了隐性偏见的概念,以及它如何在AI中以我们意想不到的方式出现。我最近非常着迷的一个例子是,如果你在任何文本到图像模型中输入“小偷”这个词或标记,
你会得到一张类似于《刺客信条》视频游戏角色或2014年视频游戏《贼》中角色的图像,而不是,你知道,穿着戴着面具、肩上扛着钱袋的典型小偷形象,或者更糟的是,一个种族主义漫画形象。你会看到一个披着斗篷的人,这就是模型认为的小偷。对。所以这似乎反映了训练数据中存在的偏见,在这种情况下,过度代表了视频游戏图像,并且
我们如何解释和减轻AI系统中这种隐性偏见,你知道,这样我们就可以确保我们不会嵌入或强化有问题的刻板印象,比如说,对于媒体或流行文化?隐性偏见,顾名思义,是隐藏的。它们在表面之下。我的意思是,你已经生活在其中这么久了,你甚至……
没有意识到它在那里。你知道,我的意思是,你一定听过那个笑话,你知道,有两条鱼,一条鱼问另一条鱼,嘿,水怎么样?另一条鱼说,什么是水?对吧?我的意思是,它太普遍了,你甚至没有意识到它的存在。我的意思是,这就是问题的一部分,当你看到偏见时要识别它。
而AI偏见是一个普遍存在的问题,因为人们理解偏见。他们可以想象他们有一天可能会处于AI决定的错误一方。无论你是谁,无论你多么有特权,那都可能是你。这就是为什么在所有AI伦理问题中,AI偏见可能是最广为人知的一个。
最普遍的一个。但最大的技巧是如何消除AI偏见?由于人类的简单硬连线和构造,偏见是一个如此棘手的问题。
我的意思是,想想我们的大脑,对吧?我们不仅仅是缺陷的机器。我们是刻板印象的机器。这就是我们的构造方式。我们天生就擅长一次性学习。我们天生就能很快学习。我的意思是,在人类历史的早期,这对生存至关重要。所以想象一下,你是第一个遇到
你认为,哦,这是什么奇怪的橙色东西?我想知道它是否有毒。你咬一口,你吃它,你活下来了,对吧?
所以自然会做出判断,任何看起来像这样的东西也都是可以食用的,对吧?这是一种刻板印象。它也可能走得太远,尤其是在谈论人的时候。个体之间存在如此大的差异,即使是在同一群体内部,无论你谈论的是种族群体、宗教群体还是其他什么。但关于……
偏见和刻板印象的另一个棘手的事情是,你知道,似乎刻板印象中有一些真实的东西,对吧?否则,它们就不会是刻板印象。但是,你知道,但是要做出如此广泛的判断并开始根据刻板印象做出决定,这似乎越过了界限。
我认为这是一个非常好的观点,对吧?就像你说的那样,偏见自古以来就存在。它几乎是我们的天性。这也许是一种简单的方式,你知道,观察模式并据此推断。因此,在
AI领域解决这个问题将非常困难,对吧?我们不能使用更多的AI来解决它,因为AI不知道对与错。甚至什么是对的?什么是真理,对吧?因为它无法检测什么是和不是有偏见的、种族主义的或厌恶女性的,
你知道,合乎逻辑的解决方法是用偏差较小的数据来训练AI。但是我们在哪里找到所有这些偏差较小的数据?因为数据是由人类生成的,他们会把自己的偏见带到聚会上。所以这不是一件小事。对。我认为你已经适当地提出了这个问题。那么在你看来,我们甚至如何开始解决人工智能中的偏见问题呢?是的。
我们对偏见的理解还不够好。我们确实对偏见有直觉的、肤浅的理解。你知道,你可能会认为偏见或歧视只是因为人们的不同而区别对待他们,因为他们的性别、种族或宗教不同。这些通常是受法律保护的类别。这就是对偏见通常的理解。但如果这就是你所拥有的全部,你就会弄错。如果我们要真正解决这个问题,我们需要对偏见有更深入、更细致的理解。
节目的支持来自LinkedIn。LinkedIn广告允许您建立正确的关系,推动成果,并在尊重环境中接触您的客户。他们没有受到轰炸。这是非常有针对性的。您将直接接触并与
拥有十亿会员、1.8亿高级管理人员,似乎每个人都在LinkedIn上,以及1000万C级高管,您将能够利用专门为B2B构建的定位和衡量工具来推动成果。在技术领域,LinkedIn产生的广告支出回报率是
其他社交媒体平台的两到五倍。您将与尊重您所在B2B领域的合作伙伴一起工作。79%的B2B内容制作人员表示,LinkedIn为付费媒体带来了最佳效果。立即开始将您的B2B受众转化为高质量潜在客户。我们甚至会在您的下一次活动中为您提供100美元的信用额度。访问linkedin.com/TEDaudio领取您的信用额度。网址是linkedin.com/TEDaudio。适用条款和条件。LinkedIn,成为的地方。
当我们对AI中偏见的定义不够细致时,会出现哪些问题?一个例子是这个。如果你认为不恰当,如果你认为歧视和偏见是因为年龄或性别而区别对待人们是不合适的,你知道,如果这就是你认为偏见是全部,它会给你很多误报,对吧?所以这里有一个例子表明,同时歧视年龄和
性别和种族可能是可以的。所以想象一下,我是一个电影制作人,我正在为马丁·路德·金小说的主角面试演员。我将拒绝每一个试镜该角色的亚洲少女。
我正是基于她们的年龄、性别和种族来拒绝她们这份工作。但这似乎是可以的。至少如果我试图制作一部历史准确的传记片,对吧?如果她们的个人资料与我的目标年龄、种族和性别不符,那么我似乎可以合理地根据她们的个人资料过滤掉申请人。
你不能简单地说,你不应该基于受保护的类别进行歧视,然后希望一切顺利,对吧?所以显然有很多问题。你认为伦理、哲学、社会科学等学科在培训这些正在构建下一代系统的人工智能研究人员和开发人员方面扮演什么角色?
哦,我认为这非常重要。我非常尊重科学家和技术专家。在我偶然发现哲学之前,我小时候就想成为他们中的一员。他们从根本上来说是好奇的。他们想知道事情是如何运作的。但更重要的是,他们想让世界变得更好。
但问题是。你也要了解世界,才能做出这种干预。技术并没有真正很好地解决社会人类问题。只有人类才能真正解决社会问题。技术和AI,它们是工具。它们可以做一些事情。它们可以减轻这些问题的一些症状。
但他们很难找到问题的根源。以人类非常普遍的问题——酒后驾车为例。好吧。现在,改变文化很难。在美国改变饮酒文化甚至更难。但我们可以做的一件事是让汽车更安全。好吧。所以如果发生事故,我们可以让汽车更安全。他们正在拯救更多生命。但他们有什么不同吗?
对酒后驾车问题?他们在减少饮酒文化方面取得了任何进展吗?我会说没有,对吧?事实上,情况可能更糟。他们可能会鼓励更多饮酒和更多酒后驾车。如果你知道你的车更安全,你更有可能安全到家,你不太可能杀死随机的行人或其他司机,那么这将激励你喝更多酒,因为你知道事情会好起来的。
所以我们已经讨论了AI造成的问题。我想稍微改变一下话题,谈谈解决方案。我想知道你是否看到有人、公司或组织正在做些什么来解决AI中偏见的问题。
好吧,我的意思是,我确实看到很多组织说他们正在努力解决AI问题。目前尚不清楚他们是如何做到的,其中一些是专有信息。但仍然,你知道,再说一次,我仍然会怀疑他们的解决方案会在解决这个问题上做很多事情。他们正在考虑的一个举动是用更多的AI来解决它。
这就是,你知道,这就是问题所在,如果你只有锤子,那么一切看起来都像钉子,对吧?如果你是一个AI,你知道,程序员或开发人员,当然你会认为AI能够解决这个问题。这就是你要尝试的。但我认为对于偏见来说,这是一个不同类型的挑战。原因之一是偏见,
是一种社会建构。因此,开发人员面临的挑战是制作能够检测偏见的AI,这与开发人员面临的挑战相同
认为他们可以制作能够检测色情内容或能够检测不道德情况的AI,对吧?色情内容、伦理,它们也是社会建构。它们非常模糊。它们很难定义。美国最高法院曾著名地得出结论,我们可能无法定义色情内容,但我们看到它时就知道它是什么。
我认为人类对偏见也是如此。我们大多数时候都能识别出偏见。在我的马丁·路德·金电影例子中,你可以看出我没有恶意。我没有做任何不当的事情。但机器可能无法做到。所以机器不擅长处理模糊性。
没有自然规律规定技术会解决你所有的问题,对吧?我的意思是,它在很多方面使生活更容易了。它在很多方面使我们更安全了。但它仍然没有解决饥饿问题,对吧?
种族主义。想想所有社会弊病。如果可以的话,我们为什么不努力呢?我的意思是,我们现在只有让生活更方便的应用程序。这是一个可以帮我找到交通工具的应用程序。这是一个可以帮我找到晚上睡觉的地方的应用程序。这是一个有人会为你做家务,收费5美元的应用程序。
我们将AI和我们所有最优秀的人才都投入到这些项目中,去做别人妈妈会为你做的事情。它们不像那些伟大的、改变世界的应用程序。
所以回到偏见,我认为这里的诱惑只是向其中投入更多数据。我们可以在这里采取两种方法。是的,你可以整理你的数据集,以确保AI正在根据没有偏见的例子进行训练。但是当你谈论大型训练集中数百万甚至数十亿的例子时,这并不是一个非常可行的解决方案。它绝对不可扩展。所以,是的,
所以如果你想要一个可扩展的解决方案,似乎你需要创建一个AI,训练它,编程它来识别它看到的偏见。但要做到这一点,它需要非常清楚什么是偏见,什么是歧视。如果你试图查找偏见的定义,你将找不到一个真正好的定义。
他们说歧视是不公平地对待人们。现在你必须定义公平或不公平意味着什么。对。但我认为这项工作还没有完成。如果开发人员不了解偏见的本质,那么他们将很难解决这个问题。
你知道,我试图想象一个AI能够理解这里每一个情况的所有细微之处,你知道,无论这是否相关,或者这个因素是否不相关。我很难想象这能够做到。听起来你所说的意思是,我们不会有一个模型来统治所有模型,对吧?这似乎与语境有很多关系。我想花一点时间讨论一下。是的。
关于针对不同地区文化背景的国家AI模型有很多讨论,对吧?这个概念是
AI中的偏见不是一刀切的解决方案。构成偏见的内容可能会因不同的文化、地区和国家而异。根据当地的规范、价值观、历史和敏感性,什么是可接受的或不可接受的、冒犯性的或良性的可能会有所不同。你认为,所以你认为我们应该有一个
针对各种文化背景调整的多种模型。这可能是解决这个相当棘手的偏见问题的短期解决方案之一吗?作为一种普遍的方法,我认为这是有道理的,因为没有一套价值观可以统治所有价值观,对吧?没有一个伦理理论可以统治所有伦理理论。伦理存在差异
从一个文化到另一个文化。其中许多是合理的差异,对吧?我的意思是,其他的是不合理的。其他的只是纯粹的冒犯,对吧?所以如果一个文化不希望妇女和儿童接受教育,并且认为向她们泼酸以阻止她们上学是可以的,那是错误的。我认为没有理由尊重这种,嗯,这些价值观,但其他的差异可能是合理的。例如,呃,
你知道,在亚洲文化中,老年人往往比孩子更受重视,对吧?
例如,让我们想象一个在医院进行分类的AI应用程序,对吧?进行医院入院,这些大城市的医院通常人手不足。所以它必须确定要看病的患者的优先级列表。在一个文化中,比如说在亚洲,如果你是老年人,它可能会给你加分。它可能会把你提升到优先级列表中。
这似乎是可以的,既不在这里也不在那里。在其他文化中,他们可能有相反的价值观。他们可能会把他们的孩子当作国王和王后,并且重视他们,在这种情况下,该文化中的医院AI或分类AI会将年轻人提升到优先级列表中。我认为我们应该尊重这一点。
多样性和这些差异,特别是由于没有一个伦理,没有一个文化可以统治所有文化。我当然不认为我们在美国做对了。几乎所有其他文化也是如此。但如果我是一家希望在全球推出产品的AI公司,
现在我在想,等等,我必须将我的产品本地化。你知道,我的AI产品,这意味着我必须从来自这些地理区域和文化的每个我想进入的市场的数据中训练我的AI。对。而且……
听起来工作量很大。我的意思是,这可能是决定性因素。多样性模型在理论上是合理的,但在实践中,你如何实现它?我不知道。所以我要说,你认为我们会陷入同样的打地鼠循环中吗?问题会呈指数级增长和倍增,特别是当所有这些主要实验室都在追逐我们目前的模式时,这个模式是让我们投入更多数据和更多计算,进行更大的训练运行,
或者我们有机会控制住这种情况吗?我确实看到了潜在的解决方法,但它们很难解决,人们也不想听到这些方法,因为这些方法与人工有关,是人类需要做的事情,是我们必须投入的工作才能解决这个问题。个人应该如何解决人工智能中的偏见,对吧?看,这……
这是一个难题,因为它是一个社会问题。这是一个人的问题。我认为把所有的鸡蛋都放在一个篮子里,希望技术能够解决这个问题,这是一个错误。不幸的是,我认为这需要付出大量的努力,在社会层面开展工作。值得尝试一下。即使只有技术才能掩盖症状……
现在这样也许还可以。就像更安全的汽车并不能解决酒后驾车的问题,但它们却挽救了生命,这也许就足够了。
所以,你知道,我会对开发者说祝你好运。但我认为,如果你真的认真对待偏见问题,你就必须了解它是什么。非常感谢你,帕特里克。这显然是一个复杂的问题。我真的很感谢你抽出时间来分解它,并向我们解释为什么它不是一个非常简单的、一刀切的解决方案。所以感谢你的时间。是的,我们真的非常感谢你。不客气。感谢你邀请我。
所以帕特里克说了一些我认为我们应该认识到的非常重要的事情。为了解决人工智能中的偏见,我们必须解决我们自身中的偏见,这是一个相当艰巨的任务,对吧?特别是当他所说的偏见几乎是人类天性的隐含部分时。
而且我倾向于同意帕特里克的观点,即向已经存在缺陷的人工智能系统投入更多的人工智能,不一定能为我们解决这个问题。因为事情是这样的,人工智能是我们自身的反映。毕竟,它是根据我们、我们的艺术、我们的模因、电影、笑话、历史、音乐、数学、科学、哲学进行训练的。它很复杂,因为我们很复杂。它有缺陷,因为我们有缺陷。它有偏见,因为我们有偏见。
但我也并不想举手投降,说“我们无法解决这个问题”,或者“我们无能为力”,因为我认为在人工智能的偏见问题上,我们实际上有一些事情是可以控制的,特别是我们对这项新生技术的反应。
现在,关于大型公司在其训练数据周围创建透明度的问题已经说得很多了,这是一个可喜的步骤。但即使是训练数据的透明度也带来了自身的挑战。首先,这些数据集非常庞大。我们说的是数十亿张图像和数万亿个单词。
要梳理所有这些内容,找出所有缺陷,并进行必要的更改,将是一项巨大的努力。所以这是一个很大的问题,解决方案难以捉摸。但我想要提出几个我认为至少可以有所帮助的解决方案。第一个是我在与帕特里克的采访中提到的内容。我们可以通过保持区域性来在人工智能模型中创建更多细微差别的想法。例如,新加坡的生成式人工智能系统可能不应该与加利福尼亚州的生成式人工智能系统完全相同。
事实上,新加坡政府呼吁人工智能主权,指出,“新加坡和该地区的当地和区域文化、价值观和规范与大多数大型语言模型起源的西方国家不同。”我相信人工智能主权可以帮助我们保持多样性,无论是州与州之间还是国家与国家之间。
第二个乍一看可能有点太明显了。你一开始可能不喜欢它,但听我说。如果我们在这个问题上给自己更多自主权,并致力于更好地使用ChatGPT、Midjourney和Gemini等工具,会怎么样?
让我举个例子。每次我提示图像生成器或聊天机器人等等时,我都会在脑海中经历一个过程。首先,我记得我正在使用一个有缺陷的工具。仅仅因为它是一种人工智能,而且应该非常聪明,它并不总是能给我最准确的结果。其次,一旦我得到对我的提示的回应,我就会仔细检查它。就像我仔细检查我阅读的新闻一样,我对结果的来源持怀疑态度。
知道这些人工智能系统是根据不完善的数据进行训练的。第三,我停顿一下。在我甚至想跳到Twitter上发布这个对我的提示的糟糕回应的辛辣截图之前,我会停下来,思考我需要做什么才能得到更好的回应,并相应地修改它。也许我会回复ChatGPT这样的内容:“嘿,并非所有护士都是女性。你能给我展示一些更能反映护理领域实际人口统计数据的护士图像吗?”
因为如果这些生成式人工智能工具只和我们提供给它们的数据一样好,那么它们也只和我们提供的提示一样好。是的,大型科技公司有责任制造更好的产品,并向我们提供更多关于它们是如何训练的信息。
他们还应该向我们提供更多关于他们在其系统中尝试解决偏见的方式和时间的透明度。例如,如果谷歌告诉我们他们正在尝试解决Gemini中的一些偏见,它可能无法解决其系统生成的图像中的问题,但至少它可能有助于了解人工智能系统首先为什么生成这些图像。
但是,我们也需要成为这些工具的受过教育的消费者和用户,并且知道我们越善于识别它们的缺陷,我们就越善于提示它们给出更好的回应。这就是为什么发展人工智能素养如此重要的原因。我们需要了解这些系统是如何工作的,它们是如何学习的,以及它们是如何出错的,有时会错得非常离谱。
我们需要停止将它们的输出视为福音或对现实的事实反映。这与了解我们自身的偏见一样重要。如果人工智能系统生成的内容与我们的价值观不符,我们可以绝对地控制并将其塑造成更好的样子。TED人工智能节目是TED音频集的一部分,由TED与Cosmic Standard联合制作。
我们的制作人是Ella Fetter和Sarah McRae。我们的编辑是Ben Benshang和Alejandra Salazar。我们的节目主持人是Ivana Tucker,我们的副制作人是Ben Montoya。我们的工程师是Asia Pilar Simpson。我们的技术总监是Jacob Winnick,我们的执行制作人是Eliza Smith。我们的事实核查员是Julia Dickerson。我是你的主持人Bilal Siddoo。我们下次再见。