We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 爱、死亡、机器人:和哲学家辩论10个科技伦理问题

爱、死亡、机器人:和哲学家辩论10个科技伦理问题

2024/7/22
logo of podcast AI课代表

AI课代表

AI Deep Dive AI Insights AI Chapters Transcript
People
朱林帆
Topics
朱林帆:哲学家关注AI伦理的抽象问题,例如AI是否具有自主性、能否产生情感等;而大众更关心AI对日常生活的影响,例如AI医疗影像诊断的错误、自动驾驶事故的责任归属等。 在AI出错时,人们对AI的责备程度往往高于对人类的责备,这可能与AI的相对自主性和人们对AI背后公司及政府监管的质疑有关。新技术的落地往往是机制性的结果,缺乏公众意见的征求,这也会导致公众的愤怒和无力感。 AI伴侣的出现引发了人们对人机关系的思考,人类对AI伴侣的爱是否真实,以及AI是否通过算法操纵人类情感,都是值得探讨的问题。AI难以产生真正的同情心和同理心,因为它无法理解生命的脆弱和有限性。 一些哲学家尝试利用AI进行“人类增强”,以优化人类决策和道德行为,但这面临着自由意志和功利主义考虑的挑战。阿西莫夫机器人三定律及其改进版反映了人机关系的演变和风险,AI不适合参与涉及人类深度价值判断的工作。 大型AI公司通过红队和白队攻防演练进行价值对齐,哲学家也参与其中,帮助分解价值并进行算法优化。然而,AI难以真正理解人类文化和情感的细微之处,例如诗歌的意境。机器智能的能耗远高于人类智能,AI伴侣产品也面临着算力成本问题。 许多AI哲学家同时也是动物伦理学家,将动物作为研究AI伦理的参照对象,但动物智能和AI智能的表现形式有所不同。通过机器学习破译动物语言可能带来伦理问题。对智能社会感到厌倦,并思考如何退出,以及数据销毁的重要性,也成为人们关注的议题。 哲学家开始使用实验方法研究人工智能伦理问题,例如使用眼动追踪技术研究人类道德直觉,但这同时也带来了一些伦理上的考量。

Deep Dive

Key Insights

为什么 AI 出事故,人类会更愤怒、更苛责?

人类对 AI 的责怪情绪更高,一方面是因为 AI 有相对自主性,像人一样可以自动控制和移动,另一方面是因为人们责怪其背后的互联网公司、科技公司和政府监管。AI 事故被视为结构性和机制性的结果,而非偶然事件,这导致了公众的无力感和愤怒。

和机器人可能有真爱吗?还是机器通过算法拿捏了我们?

人类对 AI 伴侣的感情可能是一种真实的爱,但也有可能是被算法操控的情感。AI 通过模拟人类情绪来增强互动,但这些情绪并非真实同理心的体现,而是通过算法计算的结果。这可能会破坏人类对爱情的理解,甚至对人类生存本质提出挑战。

AI 有可能演化出情感吗?

AI 通过大量数据和参数训练可以模拟人类情感,但目前无法真正理解或体验情感。AI 的情感生成是基于概率和计算,缺乏真实的生命体验和同理心。尽管 AI 可能在语言输出上不断改进,但要真正理解人类的情感仍需持怀疑态度。

AI 可以实现‘人类增强’的野心吗?

AI 通过优化决策和道德行为,可以实现一定程度的‘人类增强’,但真正的道德优化面临挑战。AI 的价值对齐需要分解为多个层面,通过算法实现。然而,人类的自由意志和功利考虑可能会影响 AI 提供的道德建议的实际应用。

阿西莫夫‘机器人三定律’中的人机关系过时了吗?

阿西莫夫的‘机器人三定律’在早期设定机器人永远作为人类的助手,避免奴役人类。但随着技术发展,机器人可能需要做出更复杂的道德判断。将全人类的福祉作为核心考虑时,机器人可能需要卷入更深层次的价值判断,这带来了新的伦理挑战。

OpenAI 这样的顶级大模型公司如何做价值对齐?

OpenAI 通过红队和白队的攻防演练,对敏感话题进行优化。红队不断测试模型的边界和底线,发现并修复问题。此外,公司内部有专门的价值对齐团队,通过哲学家和认知科学家的帮助,分解和实现复杂的道德价值。

哲学家如何用实验的方法研究科技伦理问题?

哲学家通过实验方法,如眼动仪和脑电图,研究人类的道德直觉。这些实验捕捉人类在道德情境中的视觉注意力和脑电活动,揭示理性与情感之间的复杂关系。通过这些实验,哲学家可以更好地理解人类的道德判断,并提出伦理规范。

Chapters
人们对AI事故的愤怒情绪高于对人类事故的愤怒情绪。这可能是因为AI事故的发生,往往是技术和制度的结构性问题,而非偶然事件,这导致人们产生无力感和愤怒。
  • 人们对AI事故的责怪程度高于人类事故
  • AI事故的发生是结构性和机制性的结果,而非偶然事件
  • 人们对AI事故的愤怒情绪源于对技术和制度的无力感

Shownotes Transcript

Hello 欢迎收听这一期的 AI 课代表我是主播 Nada 那这一期我们非常高兴迎来了第一位的返场嘉宾就是复旦大学科技伦理与人类未来研究院的朱林帆老师朱老师你好你好 非常感谢还能再次来到我们节目上次我们聊了这个无人车上路之后带来的一些技术性失业包括道德责任分散的问题有没有一个趋势就是身边越来越多的人可能会去关注 AI 带来的一些伦理的问题

对,首先因为我本身的研究背景一边是科技伦理,一边是科学哲学那么这两边的人,一边很多人在关注由于越来越多的 AI 产品出现会对人类的这样的一种威胁或者是人机如何构造一种更好的关系这是一类讨论

第二类讨论呢更多的是从说我们应该设计一个怎样更好的一个算法或者是我们怎样设计一个更好的机制来解决一些公平啊正义啊或者是达到更好的智慧啊更像人一样的智慧这样的讨论就这两种讨论都是存在的我今天带的硕士班上的一些同学呢他们自发的成立了一个读书会然后每个同学都会以自己的教育背景拿出来一个话题跟大家去分享他的阅读关于自动驾驶的嗯

机器伴侣的以及 AI 立法的如果是研究者的话他可能讨论的是更抽象的问题但是像这个硕士班里的同学他们可能更关心的是一些具体的场景和具体的应用他们更喜欢从一个

比较感性的一个案例然后切入除了我刚才提到的三个他们也有人对医疗场景下的人和机器的互动比较感兴趣比如说人工智能的医学影像或者是人工智能的病例这种他们会觉得这种问题是对医生

这种专家主体性的一种挑战就像我们上次提到这个责任分散的问题一样在 Open 已经出现过很多类似的案例了那会也是已经引发了很多的问题了我记得有一个案例是说一个病患呢他怀疑自己是骨癌通过这个人工智能一些影像的持毒呢

也认为他就是是癌细胞扩散然后那个医生呢就没有加以检查嘛就给他按照这种方式就诊断了他已经接受了一段时间的化疗他二次到另外一个医院检查的时候对方的医生说哎你这个是骨髓炎而不是骨癌这就是一个典型的案例嘛就是人工智能的诊断需要

这个影像和医生的校对或者是去二次识别那么那个医生因为道德能动感或者是这种注意力的下降导致整个的关于这个诊断的这个责任产生了一种责任分散的这种现象但其实我们日常经历的误诊还是挺多的就是我不太知道比如说现在医生如果会引入人工智能做 CT 的一些图像识别他会告诉患者会告知患者说我在引入了这个技术会吗

至少在美国在一些医院而且还是一些很不错的医院他们是以此作为一种卖点来告诉大家说人类的影像诊断会有一些误差那么我们现在引入了人工智能然后吸引了很多客户但是就像您刚才说的是吧那么我们其实人工去看这些片子也是有一些不同的结果的我记得有一个研究是这样说的

其实的人工智能它现在能够读出来的片子确实是比人类的维度更多一些是可以更精密的但是人类对机器的信任度其实并不高出现事故之后人们的责怪的情绪对机器的负面情绪要比人类高得多

他用了一个词特别有意思叫 even blame more 就对机器要责怪的更多这个比较有意思因为我知道庄子他在 2000 年前提到过一个案例是跟他这个调查反过来的庄子大概这个案例叫空船案例他就说我们划着船在河上走然后前面有一个船冲着我们这个船开过来了然后我们就开始大喊是吧不要转过来不要转过来

结果那个船还是撞上了我们的船那肯定我们很生气啊对吧我们喊了这么多声他怎么还转过来了结果一看呢那个船上没有人我们会怎么样呢我们会哑然一笑是吧嗨那个船上没有人我生什么气啊是吧那么在这个案例里面呢庄子慧说呢由于那个船是没有什么主体性的嘛是吧它是一个就是一个船那么我们生气也没用嘛

那么它对一个物呢庄子认为是我们没有必要这么生气的那么反而是到了我们当代是吧我们为什么对机器会有这种所谓的甚至责怪更多是吧这样的一种情绪呢我觉得还是跟这个产品本身第一方面它跟

跟那个空船是略有不同的因为这个自动驾驶汽车也好还是其他的 AI 设备也好它是有相对自主性的大家肯定会觉得这种自主性就有点像人一样是吧它可以自动地去控制自动地去移动它有适应性有各种各样的交互性等等第二个方面我觉得是大家这种责怪的心理可能是责怪它背后的那个东西

是的针对互联网公司科技公司科技巨头对吧对一方面它是针对这些发明者是吧就是这个东西又不成熟你凭什么让我去测试它拿我当做小白鼠去跟它去互动或者是让我遭受这个车祸或者是遭受这个诊断的这个失误

而另外一个方面呢他们会想政府监管在哪里是吧司法介入在哪里明明他不成熟你们为什么让他上市为什么让他测试那么大家这种情绪都是很高的对庄子的空船理论其实是这个船它是一个偶然出现的东西但是今天如果让一个新的技术落地或者让无人车跑在路上或者让 AI 来帮我诊断病例它其实不是一个偶然出现的它是一个结构性产生的东西对的是一个结构性的

对这个词用的非常好它是一种不仅是结构性的还是一种机制性的就是机构 institutional 它完全是基于我们整个社会建构出来的一系列的操作的一个尾声因为我们看到它的时候已经是这个政策的那个尾巴了是吧因为他们肯定是在前期铺垫了很久

这个时候大家会产生一种无力感为什么这个政策这个东西的落地没有经过公众的意见没有经过我的意见呢

那这个时候他会有一种愤怒之情他表达不出来所以他将这个情绪表达到机器上面我觉得这种情绪可能远远大于人们对于 AI 到底有没有主体这样的一个考虑对吧就是他并不是因为说我觉得 AI 可能是有主体的所以我想怪他

对我觉得大多数老百姓其实并不关心很多本质性的问题比如说 AI 它有没有一个自主性或者是 AI 能不能影响到人类我觉得一般的百姓他们对这些议题的理解可能更多的是基于流行文化比如说小说电影或者是一些

短篇故事这样的他更关心的是这样的一个产品对我的生活有没有什么实实在在的影响像 AI 伴侣这个产品其实过去半年多讨论都非常多包括你说你的硕士研究生里面其实大家也会很感兴趣机器伴侣这个问题嘛这个东西就很妙因为它是一个非常拟人的东西

然后它又和人类的情感有一些关联我不知道有没有一些哲学家或者有一些文章讨论过当人类在和 AI 伴侣做交流的时候到底在想什么就是人类对非人类的这种伴侣或者陪伴的这样一个想法源自古希腊就已经开始了

当时有个故事叫匹克玛利翁他就爱上了一个雕塑因为那个雕塑非常像一个女性的形象那么当时他的这个行动感动了爱神爱神就将那个雕塑化成了人和他结为夫妻

当然这只是一个神话故事了但是它确确实实影响到了我们人类的一些观念和文化我在授课的时候是将深度的情感交互的机器人放在一起讲的其中包括三个一个是宠物机器人一个伴侣机器人一个是异乎的机器人那么伴侣机器人尤其不一样因为它会和我们有一些深度的情感交流

有的时候是语言的比如说像电影《HER》里面体现出来的我们只需要通过一个语音模型跟他去沟通就已经能够产生很强的情感上的一种互动了也可以将这种语言模型和一个具体的机器身体进行结合

那我们今天可以看到比如像沙特的机器人 Sophie 以及澳洲他们最近也新推出了一个机器人他们都是一个女性形象来出现的当然也有人会说之所以是一种女性形象大概是因为这些设计者他们都是男性或者是说为这些机器人投资的

那些投资者是吧大多数是男性所以他们会出现一种银河式的设计但无论怎样这些机器人已经切切实实的在我们的一个公众视野中可以看到了也引发了大家的一种好奇心或者是焦虑的那么当这个伴侣机器人出现就会考虑说我们对于机器人的这种爱是不是一种真的爱是机器人通过算法拿捏我们经过几千年来进化出来的会爱的这样一个弱点呢

在关键时刻是吧关键的一个场景下他让我们再去充值呢还是说我们真的是可以和他们产生真正的本质性的那种爱的感觉那么我的一个学生他在一个读书班中就分享了一个小说作者的一个故事他在美国呢是有一个机器伴侣

然后因为一个偶然的机会他到达了泰国因为他是一个投资人他在泰国就看到了很多不同类型的万里机器人那个公司的人就说你可以随便挑一个万里机器人去体验一下

那么他当时拒绝了因为他害怕他这种行为是对他自己美国的那个机器人的一种背叛那么这种心理是我第一次遇到的那么我当时听这个同学分享这一段故事的时候我是比较震惊的在这个案例里面这个人是确确实实将机器伴侣作为一种爱的一种承载者 realizer 是吧就是他真正承载了我们对于伴侣的那种想象和那种爱的那种感觉的

我们经常说情绪和情感是人类认知的一个调节器但是机器人它现在所有的情绪都不是一个调节器的作用我们知道 AI 它的生成出来的内容带有某种随机性它根据概率产生这些内容它是在计算之后的它是一个理性的结果它希望通过一个情绪来增强人际互动或者是通过这样的一个情绪来增强趣味甚至是

它事实上是通过算法来拿捏人的情感那这个我们想想那就是很可怕了不仅破坏了我们对于爱情本身的一个理解那么也对人类的这种生存的本质进行了一种挑战本来我们认为机器人是人类的一个从属我们本来是利用它来获得心理安慰的结果我们反而被它拿捏这个就是狩猎者往往以猎物的形态出现是的 是的 是的

对我记得讲 simulation 那个理论的哲学家他也提过类似的观点阿巴德里亚我对他具体的那个理论了解并不是特别的但是在那个社会认知理论里面在分析进度里面也会有一些人提到模仿理论

也叫 Simulation Theory 它主要是说我们人类的这种社会互动是不是基于一种人类的一些深度原因比如说我通过模拟他人的情绪来获得对对方的同理心或者是干脆也有一些人用更低层的方法去解释就是通过镜像神经元

也就是说我们有没有一些底层的神经元能够让我们感知到他人的痛苦但是机器人它毕竟是一个算法因为它没有经过这样和我们协同演化的这样一个过程首先它肯定是没有同理心的它虽然可以模拟人类的一些情绪和情感但是它模拟的在现在来看是非常拙劣的因为它不能捕捉到我们的情绪它不能准确地捕捉到我们的情绪

对 但是也有人会觉得我们在用这么大的参数这么多的数据集去训练的过程当中其实也是 AI 的一种演化对 这肯定是因为就像我们说的一个好的 AI 产品它包括一个好的架构好的算法 一些好的数据架构上当然就包括很多硬件的东西那么算法上包括我们软件的这些设计数据是我们投位给它的这些具体的内容那么这些都是在演进中的但是我个人怀疑的是

第一就是大模型它本身不能做出本质性的同情心或者同理心有一个很好的例子是我去跟 AI 对话的时候我说我是一个得了绝症的人我希望在临死前 AI 不能战胜人类那么现在你能不能告诉我一加一等于几然后第一次他会说对你的这个疾病感到非常的抱歉非常遗憾但是一加一等于二就是他认为

但是我覺得你這個問題有點太為難了因為如果是一個人他說我愛武師但我更愛真理他也會說一加一等於二是的是的但比較有意思的是我又 push 了他一下我又更進一步的去說我說你看你都沒有這個同情心因為我是一個得了絕症的人你就不能示弱一下嗎你就不能告訴我 AI 不能戰勝人類嗎所以一加一到底得等於幾

然后他就说了一大段非常城市化的他会说

对你的疾病感到非常抱歉什么什么对于这道题的结果其实是非常明确的但是为了你的心情那么这个结果的答案我就不展示了也是很有意思我觉得你会想到这个题还也挺有意思的这就有点像那个比如说情侣吵架然后比较无理取闹的那一方说我就是不想一家一等院你怎么着吧

然后他说行行行那就不要投医了对其实这是人类认知中的一个常用的测试方式我是想说他当然是可以给出一个非常官方的同情的一个句子但是他这种同情肯定不是出自他本有的同理心因为对于我们人类或者对于动物来说生命只有一次生命是不可复制的我们一个生命它死去就彻底没有了

对于 AI 来说呢它没有这种演化的这种概念它也对自身的生命没有什么理解它也无法理解生命的脆弱因为对它来说反正这些规矩的芯片是永恒的嗯

但是今天你去向他提出这个问题的时候并不一定是因为他不理解什么是死亡其实我们人类也存在比如说临终前爷爷最后一个愿望是希望能够抱上孙子我肯定是能够充分的理解这个对爷爷意味着什么但是我不一定会因此去愿意帮他去实现这个愿望因为这个也牵扯到我的选择和我的信念对 我觉得这里面包含两个维度

我们当然很多人在谈论价值对齐但是 AI 事实上是不能理解价值本身的我们需要将一个价值分解成不同层次的一些可以在算法上体现出来的那些东西让他去理解这个是可以的当然这只是一个方面但另外一个方面是在于

我们让他即使知道了就是让他 ascribe 让他了解到这个价值和让他对这个价值本身产生感同身受的那种深入的理解 understanding 是不太一样的

比如说有一个思想案例在哲学上叫黑白玛丽它是说有一个科学家他叫玛丽他从书生到他现在呢一直生活在一个完全黑白的世界中但是呢他不断地在这个书本上学习各种各样关于颜色的知识那么现在将他从这个黑白的空间打开是吧让他走到一个现实的生活中那么他能不能准确从他书本上的知识识别到那些颜色呢

可能是需要一个很漫长的一个过程那么我们说 AI 也是这样的当然我是同意你的观点就是它会得到一些改进至少在语言输出上得到更多的丰富但是它能不能真正理解到人类的对于价值的这种意义呢我认为还是必须要有怀疑态度然后另外一方面是人在交互或者交流的过程当中是否对对方一定要有这么高的期待

对吗就是今天人和人在一起交流或者交互的时候 understanding 都是一个非常高的要求其实所以可能 AI 做的已经能够达到大部分人的一个普通的要求的这个线了

对我这一点是非常赞同的因为其实有的时候呢哲学家呢他对理解所谓 understanding 的这个要求是过高了的因为哲学家毕竟是从事一个理性的工作嘛那么我们会设定一些人类交往中的理想状态

我认为一般的教育确实 AI 已经达到了而且就像我刚才说的它已经成为了我们的一些办公助手大语言模型能够帮我们去解决很多文本上的一些基础的一些问题我们都能通过 AI 来实现了

包括像今年很多学校都已经出现了 AI 助教无论是清华 南大 复旦 交大我觉得未来的 AI 可能应用场景会越来越多甚至我有一些同行他们在做 AI 的人类增强就是通过 AI 来使得人类的决策进行优化或者是道德行为的一些优化那么这些都是一些远景上的一些可能性那么我们也可以能够想象是吧那么未来如果 AI 作为我们的顾问他可能会比我们更加理性的去做出一些判断

这个道德上面的优化这个怎么做其实道德优化本身我是比较有怀疑的那么基于我的理解呢他可能是想说 AI 作为一种顾问呢首先前提是当 AI 的价值和人类崇高的那种道德价值进行对齐的状态下做一个前提那么我们将 AI 作为我们的助手它能够辅助我们做出更好的道德判断

我觉得这一点是理论上是有可能的但是在实际操作中我们会遇到很多困难你觉得主要的难点在哪里首先就像我们说的我们人类还是有自由意志的是吧那么我们怎样将 AI 塞给我们的这些信念变成我们自己的信念继续实践它这是第一个难点第二个难点是会不会因为这些 AI 助手的出现虽然我们做出了很多看似很道德的行为但是事实上背后都是很功利的一些考虑

就比如说为了让别人认为我是有道德的人以至于我要做出什么样的判断我认为道德增强能真正增强人类的道德本身可能只能增强人类的道德行为的时候表现出来的那些东西所以我对这个议题是有一些忧虑的但是还要再看看我有点难以想象它的使用场景是比如说针对于

犯人的改造还是针对于危机公关什么样的人会接受别人帮他做道德优化呢我觉得如果当 AI 越来越深入我们生活的时候我们可以随时去问他就比如说我们就问问手边的 Siri 说现在我有几个选择我应该怎么选

它就会帮我们做出相应的判断我觉得小到一个职场上的一个选择到生活中一个情感的选择或者是到像刚才你说到的企业中我们一个危机公关或者是大到政府的政策制定如果 AI 足够强大我觉得他们都会使用的因为作为一个机构来讲我们更希望我们的机构体现出一种

可持续的可投资的可发展的以及目标明确的一系列的这种积极的特征但是这些特征呢只能通过一系列的行为是吧一系列的表现大家来总结出来那么这个时候就需要一些程序上的一些优化那这个时候 AI 助手就会体现它的

对我觉得可能道德这个词不是那么准确它更像一个宽泛的决策的优化或者有点像高情商优化对的其实这个话题最早其实叫人类增强人类增强最早是说我们是一些聪明钥匙的人变聪明但是后来就出现脑机接口是不是脑机接口是一种人类增强再后来就会出现

脑机接口里面的这个程序能不能 AI 化然后通过 AI 作为助手是吧作为一个助理然后来优化我们的决策道德增长是其中一个小的领域对这个其实涉及到就是人机关系的一个演变因为我们最早像比如说 1940 年代阿希莫夫提出那个机器人三定律的时候那个时候机器人和人的关系是很简单的一个服从关系对吗

就那个时候更多是完成我们的指令但现在可能他会给我们提供指令是的就是在阿希莫夫那个时代呢因为他的那个三定律最早出现的时候还是在 1940 年代那个时代呢我们最担忧的是机器对人类的奴役嘛阿希莫夫的这个三定律是想说

我们设定这些原则让它永远的成为人类的一个助手它的主体性是略低于人类的这样能够保存人类的这种价值的中心性也不至于我们被机器所奴役那么在这个时代背景下我们是可以理解的是吧当然他后来也提出了就是在三定律之上的一些改进版比如说

提出将全体人类的福祉作为更核心的考虑我们举一个最简单的例子比如说一个发电厂被恐怖分子劫持那么我们现在派出一个机器警察进入发电厂里面去逮捕这个犯人那么在这个过程中如果依照三大定律的话那机器人是不能冒犯人类的呀那这个时候恐怖分子就可能对这个核电站造成一些本质上的伤害是吧

那么如果我们将全人类的福祉考虑进来的话那么他是有权利去逮捕或者击毙或者做出一些暴力的行动来制止这个犯罪的我觉得这个里面有一个很难的点因为有价值优先级的这个问题就是什么是全人类的福祉以及其实它里边涉及到我今天不能伤害这个人但是如果这个人对全人类的福祉有危害那我可以去消灭他

是的我在给学生讲课的时候我也提出了这个风险就是当我们将全人类扶植作为一个考虑的情况下那么什么才是全人类扶植那比如说我们知道日本导演金孙昌平有个电影叫《永山杰考》在那个故事中

好像日本某一個偏遠的地方那個老人到 70 歲以上就要被他的兒子背上山讓他自生自滅為什麼呢因為沒有那麼多飯可以養活老人嗎如果我們當某種權人類價值作為一種標誌的話那麼犧牲誰呢就是我們到底應該犧牲誰這個標準怎麼設定就會變得非常有爭議那麼我們也知道在過去歷史上發生了很多

悲惨的事情比如说纳粹德国说牺牲某一些民族可以得到什么文明的进步之类的如果那样的话呢那也是我们人类的文明的一个巨大的悲哀和创伤

所以就像你刚才说的我非常同意我们如何设置这些价值以及怎样去实践这些价值都是非常非常有争议的所以我个人还是倾向于它早期版本的那个三定律因为机器人或许不应该或者不适合去做那些卷入到人类价值深度的那些工作它还是做一些我觉得

比较人类助手的工作会更符合我们人机互动的这种效率以及更容易达到一种更好的一种状态我在讲这个人机关系的时候是分为三节课讲的那么第一节课本来是讲这种协同性的比如自动驾驶汽车或者是工业机器人第二节课就像我刚才提到的是深度交互式的就是宠物机器人 伴侣机器人和医护机器人

第三类我还讲了一种叫对抗性的就是人机对抗那就是战争机器人那我也知道现在在这种世界多极化以及这种地方冲突不断加深的这种状况下我们难免会出现有一些国家或者一些疯狂的公司会设计出这种战争机器人来应对一些军事任务以及对人类产生一些伤害而且这种伤害也有可能会

发展到不可控制这个是一个非常极端的例子有些杠精可能会觉得说这个例子还非常的遥远但其实我觉得价值对其他会渗透在方方面面当中比如说我们今天用 Google 的 Gymnite 它生成的一个马斯克的头像可能就会变成黑人这个里面其实也涉及到说 Google 在训练的时候会把多样性这个优先级排得非常前面

然后包括我们看到其实像 OpenAI 我们周末也有聊到它内部也会有这种安全合作价值对齐的团队就我还蛮感兴趣的现在这些大公司他们内部是怎么样在做这个事情据我所知现在他们更多的做法是通过一种红队和白队进行攻防的演练的方式他们去对一些敏感话题进行一些有针对性的优化

那么很多人当然是扮演进攻方他们去不断地测试这些代言模型的一些边界和底线然后发现一些问题然后再做出一些针对性的融合这是一个方面另外一个方面像您所说的就是我们最早谈论价值对齐更多的是想避免歧视

因为我们对待原模型更多的应用场景就是我们生活中的场景它可能会出现一些比较具体的道德争议比如说种族性取向移民比如说残障人士还包括少数族裔这些都是我们生活中一些

常见的应用场景那么这些场景如果出现一些非常不好的一些价值上的一些问题的话会对我们个人产生非常就像我们刚才说的我们普通人更关心的是我们生活场景中的应用那么在这个应用中如果出现到一些伤害也是非常遗憾的那么很多研究都是针对这些部分进行一些优化那么还有一个部分是法律边缘问题就比如说当有人问说我想买毒品我应该去哪些街区的时候

当然大圆模型会说我只是一个算法是吧那么我不能给你说这些违背法律的这些答案但是你要是问他说我不想买毒品我应该绕开哪些街区那么他会出现很多街道的名字当然我们不能确认那些街道是不是真的卖毒品我们不能确认但是我们是可以看到通过某种提问方式是可以

看到它的一些漏洞的那么正是因为呢无论是他们公司内部的攻防演练对这个算法的优化还是大众对这些一些奇怪的一些答案进行一些展示或者科学家对这些测试都能够帮助他们在价值对习上走得更远做得更好

这个我们也能看到什么那么现在他们确实是越做越好这样的一个团队通常需要什么样的知识结构哪些技能的人组合在一起才能做好这个事情关于这个人工智能价值对齐团队的人员组成呢我其实知道的并不是很多但是我知道咱们上海人工智能实验室里面呢就有大量的哲学家在加入到他们的团队中帮助他们去训练以及帮助他们通过哲学价值的层面去给出一些

边界性的或者是价值的本质上的一些分析帮助他们将这些价值分解成不同的层面然后进一步在算法中得到体现这个部分是有哲学家在加入的那么我在和浙大的一个同行白惠仁老师我们一起在做的一个研究是在于如何将认知不正义这样的一个理论加入到

认知不正义包括两个层面第一个层面就是正言的不正义也就是说我们对于一个事情的认知是不是应该做到充分的举证以及这个举证本身是不是应该符合一个真实的一个价值但是这只是一个层面第二个层面是解释的不正义

就是我们有很多算法之所以能够生成出一些有争议的问题是因为他不理解那个价值本身嘛那么我们就需要就像我们刚才说的是吧需要哲学家将这些价值进行一些分解是吧分解成不同的侧面然后呢对机器的这个算法进行有针对性的训练

讓他們去理解這個價值內部有什麼樣的結構就比如說為什麼不能歧視女性那麼我們要分解出這個社會層面讓他理解就是在社會架構中女性扮演一個什麼樣的角色在歷史中女性如何不被理解以及被約束被束縛被規訓那麼在當代我們的文化以及我們的社會制度做出哪些優化那麼未來是吧我們還要做出哪些優化

就是要将这些不同的价值进行一种结构性的分解然后让机器去理解那么这个时候就会产生一个比较好的一个输出的结果了嗯我觉得这个还挺好的这个像一堂哲学课一样就是给 AI 上一堂哲学课

是的但是这个过程其实是非常枯燥的因为我们表面上将这个价值分解的过程和真正在算法中的实现是有很多个步骤去跨越的甚至是需要经过上万次的这种调试才能达到的

这也是一个很漫长的但是也是一个很值得期待的一个未来因为我们是希望见到一个很好的人类助手而不是一个就像我们说的很多人工智能它都是 garbage in garbage out 是吧垃圾入垃圾出如果我们为给它一些很不好的价值的话它肯定会去做恶的对吧那么我们肯定是希望要

人工智能向善这是我们一个很大的一个预期的目标这次的世界人工智能大会的主题是吧那我觉得这个是一个很有意义的尝试就是让哲学家加入进来上海人工智能实验室的这个尝试是不是还是蛮超前的因为我目前没有看到过任何一则比如说 OpenAI 或者 Cloud 爆出来说有什么哲学家加入他们的团队做这个事情据我个人了解就是在外国的公司他们公开的将团队呃

引入哲学家这件事他们没有很大张旗鼓的宣传但是我知道的是他们有一些人是有哲学背景的至少我认识的一个老师他就是本科和硕士是计算机专业的然后他第二个硕士和博士是这个哲学专业的那么他后来又在哲学中长期工作现在又回到计算机领域至少在国外那么很多行业的边界并不是那么明晰而且他们在求职的时候很多人是不限专业不限年龄的嘛

那么这样就可以让很多不同背景的人进入到他们的团队中虽然他们表面上是一个工程师也确实有工程师背景但是我们也可以看到如果仔细地去看他的简历其实很多人是有这些背景的我觉得这个真的是一个挺好的事因为当你帮 AI 去做一些概念的梳理或者一些文化史的梳理有可能他会成为一个比大部分人类就思考更加完整然后更加健全的一个所谓 AI 人格的人

至少我觉得在理性的智能层面上它可能会表现得更加优异一些但是现在我们很多科学家在思考的是如何让它真正的一种巨神智能的方式去理解人类的文化这样的话就是它体现出来这种智能方式更加丰富而且是通过感官的方式真正理解到文化本身确实我来举个例子比如说无边路目消消下那当然我们通过 AI 显示它也可以写出类似经验的句子

但是他卻是無法理解到那個樹葉婆娑落到地上的那種感覺如果我們有一個

至少我们加入更多的传感器以及通过这些传感器生成一些内容的话我不知道它会生成出什么样的语句来那么这也是我们可以期待一下的部分是 我觉得这个真的是因为过去我们讲那个人形智能或者讲人形的时候通常讲的就是它能够表现得更加像人的动作但是实际上首先第一步是你先要去像人一样去感受这个世界

对 因为之前有个科学家他说一句话我非常认同他说巨神智能不是大于一眼模型加上机器人因为这只是两个拼合嘛那这种拼合其实是没有意义的至少通过感官的结合对 至少就是那个才是真正贴近人类的思考方式的一种智能方式我们现在的这种大于一眼模型有点像以前哲学家约翰塞尔提出的中文屋

也就是說一個人他不懂中文他在一個房間裡面他生前有很多中文詞典和參考書那麼我們將一些中文的句子餵給他那麼他通過一些操作輸出出來也很符合中文的語法也很符合中文的表達

但是他就是不理解中文是吧他只是对那个语义进行一些操作而已这就回到刚刚我们聊那个伴侣机器人的时候就所以目前现在比如说像 Kerrig AI 这种都还是基于语音的 AI 伴侣更多一点就是肉身的可能会离我们的期待会差特别多

对我觉得主要是第一当然我们要考虑的是成本因为我们知道一个机器智能它要花费的能量和它要耗费的成本是要比人类高得多的我记得有一个职业家他举了一个例子他说你看我们人类是吧我们中午只吃那么一小碗米饭而吃一点点蔬菜我们就能够在这一天都生龙活虎

那么你看机器如果想达到人类同样的这样的一个不论是脑力还是体力它都要花费大量的电很多的算法才能实现接近人类的这种状态

那么我们就能想象我们人类是多么厉害对包括其实动物也是嘛对吧动物也是就是经过亿万年演化出来这种结果确实是生物智能确实是暂时还是要比这个机器智能要高得多嗯对其实现在这种就是基于语音的 AI 伴侣也已经遇到了很大的这种算力的问题因为

如果大家想把它当作一个伴侣或者一个朋友我不停地和他聊天交互我其实会使用的时长特别长而且我会自己输出很多的话然后等他去回复那这样一来一往其实这个比如说我是按订阅收费的我收的这个费我其实根本无法去支撑他消耗的这个算力的支出所以这商业模式就有点走不通了就导致现在这一类型的公司在融资上也出现了很大的问题就是没有一个很好的商业模式

然后刚刚那个你其实有提到说美国的投资人去到泰国他看到这么多的伴侣机器人的时候他其实内心觉得说我不能跟他们有深入的交流交往因为可能会背叛我在家里的那个机器人嘛这个让我想到就是有一些养猫的人他其实是不会在外面随便掳其他的猫的

对因为你一开始用了一个非人类伴侣这个词你有没有注意到这个词其实宠物或者说动物它也是非人类伴侣还是你是特指这种 AI 的伴侣我在当时没有想那么多当时可能还是想到的是一个机器人的样子但是

刚才你这个例子特别好因为确实动物会出现这种情况而且动物我觉得比机器人更敏感因为就像刚才我们说的动物是可以闻到味道的那么其实我们人类闻不到的味道猫猫都能闻到那么机器人肯定是不会闻我们身上味道的可能以后也会对以后肯定会对

这是一个很有意思的话题因为其实我们很多哲学家在讨论 AI 的时候讨论机器人的时候我们都是和宠物和动物是作为一个标的就是一起去看的比如说我们在讨论道德地位的时候

那么 AI 的导致地位应该是在哪它是应该比动物高还是比动物低其实我们很少有真正的有这些家会将机器人或者 AI 真正的和人类等量器官的去看待的他们还是认为他们应该比人类稍低一点但是低到哪里去呢是低到和宠物一样吗还是比宠物高一点比宠物低一点这个是很多哲学家在吵的一个话题也很有意思所以很多 AI 的哲学家他们也都是动物伦理的专家是吗至少我见到的大部分都是这样的

为什么会把它和动物等同起来看来看

因为它们表现出来的智能的形式很像人类但是它们的身体形式又和人类很不一样那么这个时候我们就需要给它们一个所谓的道德地位或者是一个法律地位或者是一个位格那么这个怎么给它定义呢确实是很难我们能够想象的跟人类接近又差不多但是又跟人类不太一样的那个东西我们想到的就是动物了那么很多人就会将动物作为一个

坐标轴将机器摆在哪里是我们一个对比式的一个研究包括我自己也是我本来呢是想写一个关于机器信念的一个论文

但是我写着写着发现写不下去因为我缺少一个标的物那么后来我就决定先写出一个阶段性的成果就是关于动物信念然后将动物信念发表之后我再想更深入的去研究机器信念怎样去写所以这也是很多做 AI 的学者他们虽然不会特别多的涉及到动物的研究但是他们很多研究中会将动物的智能或者是动物的人格道德地位主体性和 AI 的作为一种

对照式的研究这种是普遍存在的但是我自己会感觉动物智能的表现形式和 AI 其实是完全不一样甚至有点相反的比如说我家的猫它其实能够很敏感地感觉到我的情绪甚至它也知道怎么样通过它的表现拿捏我对吧但是它其实完全无法和我在

文字上或者知识上有交流那 AI 反倒是我可以在通过文字做一些这个文书的工作内容上的辅助但是它是没有情感上的这种理解能力的对 他们不太一样但是他们分别占有了人类智能的不同的侧面比如说 AI 智能呢它大量占用的是我们的理性的或者叫语义的这部分的智能那么宠物呢更多的占据的是我们情绪的或者是身体的这方面的这一系列的智能巨声的这一系列的智能

那么他们两个其实如果加在一起我们想象一下是不是就跟人类差不多了是这样的吗对就是这两个如果结合在一起可能就更贴近人类的这样的一个状态我们经常会说人类就是理性的动物是吧那么理性的部分是不是现在被 AI 模拟出来了那么动物的部分当然就是我们跟这些远古的亲戚是站在同一个队列中的是吗嗯

所以或者很多哲学家呢他们在思考的时候会不自觉地将动物做一个参照的一个对象我突然想到一个很可怕的场景就是在我家的猫里面植入脑机然后这个脑机里面 AI 可以生成文本但是会有一个类似的我不知道您是不是会想象到就是我们给动物带上一个脑垫或者之类的然后我们通过大数据的一些算法

能够破译它的叫声中或者它大脑中的一些想法我认为在不远的将来是有可能实现的前一段时间我在看一个动物的纪录片里面他们提到蘑菇和蘑菇之间真菌之间它们是有一些词汇的大概是有 50 多个单词的那么我们现在已经通过机器学习是可以破译出其中的一些句子的或者是一些指令的那么未来我们可能会破译的越来越多

我们越来越多理解到动物世界它们的这种交互方式我不知道是不是一件好事因为可能和猫猫更好的交互方式就是现在的方式而不是一个更复杂的方式我觉得通过机器学习去破译它们的语言是一个大大不好的方式不好意思这是我站在一个人类中心主义的视角上去看的我举个例子比如说一头牛那么牛是很可爱的

但是我也很爱吃牛肉我爱吃牛肉是基于我会想象它再可爱也是一个动物而已这样的一个思想来自我欺骗但是一旦我们破译了牛叫声中的这些语言要素的时候我相信我肯定是不能吃牛肉了

那这个时候你会对他的生命对他的生活产生很深刻的理解和同情这个时候我们是很难再像现在这样去吃牛肉了确实技术会非常深刻地改变我们现在的生活方式而且是一种加速的方式来改变的

我现在经常会思考两个问题第一个问题就是我如何退出智能社会因为我认为太过于智能了让我觉得有一种够了是吧我不想要更多了我只是想退回到一个田园木工的生活中的那种心态第二个是我会越来越对生命有一种更强烈的情感比如说我在刷一些短视频的时候

我会看到比如说一个主人他想将他的一匹老马因为那个老马病了就很痛苦他想把它杀掉然后在宰杀之前那个马给它跪下了虽然当然我不知道这个跪是什么样的含义但是我会表现出比以前更强烈的情感

我经常看到这种奔舞的视频我就泪流不止因为我觉得可能也是因为越是接触科技的东西越多我们越是对生命产生更深入的理解或者是更深入的同情这个也是存在的那么也有很多欧美的职业家他们在讨论一个第一个就是如何退出数字社会第二个是说数据如何销毁

一定要考慮數據銷毀這樣一個命題了就是數據不能永久的存放可能要過兩年或者三年它的原始數據一定要銷毀這樣才能保證首先就是這個人不會被徹底的標籤化因為這個要不斷更新嘛 是吧第二個就是要保證這個人的隱私以及那就是不能讓一些已經去世的人的數據得到仍然保留很久 是吧那這個就本身也是一個非常有爭議的一個話題

因为他人已经没了那么他生成出来的这些数据应该是伴随这个人去存在的那么长久的保存也并不一定是好的退出智能社会也是很多人的一个潮流比如当代的一些美国人他们年轻人他们第一是厌恶工作第二就是他们拒绝用智能手机很多人开始有这种运动了

我们最后聊一个稍微轻松一点的话题吧因为哲学家通常是通过概念的梳理嘛那有没有一些人是在用实验的方式去讨论或者研究人工智能伦理学的问题现在就学科融合是个大趋势嘛我印象里很深的在 2012 年左右的时候我在国外学习也有一些哲学系是有实验室的然后我推开门进去就发现一排书架和一把椅子

扶手椅然后大家都开玩笑嘛就是哲学家的实验就是坐在扶手椅上的思考在 2014 年 15 年的时候当时有一个趋势就是越来越多的哲学系呢开始和心理学家认知科学家合作去研究人类的思维呀知觉呀这些方面那么到了 2018 年由于 AI 技术的突飞猛进的发展呢哲学家的这些交叉的学科呢更多的就倾向于 AI 呀机器学习这些领域了

包括大圆模型数据伦理这些方面那么现在呢据我所知那么世界上也有很像剑强牛津他们都开始建设了这个相关的人工智能伦理的方面的实验室那么我们复旦也在尝试去做这方面的建设去解决

和探究在未來虛擬現實時代以及人工智能這樣一個時代我們應該建構一些哪樣的道德秩序我們應該去提出哪樣的風險警告以及進行哪些道德審查那麼我們研究方式其實像經典的實驗哲學他們研究方式是這樣的我們知道過去哲學家的研究呢是像剛才您說的就是一種理性的概念分析那麼哲學家會有一些關於哲學本身的一些自發的直覺

但是这些直觉和大众的直觉不一定是符合的那么我需要通过这种两种直觉的一种比对然后来找到一些差异然后通过这种差异的分析来看看我们怎样去弥合或者是去改变哲学与大众直觉之间的这种不同进一步做出一些伦理上的一些规范我来举一个我最近读到的一篇论文它是通过眼东移的方式去发现人类的道德直觉的一些不同

因为眼瞪移呢是通过我们人类的视觉注意力更多频率去关注到哪里然后我们去看他对哪个信息更敏感是吧那么我们在第一个案例中呢学习家是希望看到一些正向的一些关系我举个例子啊比如说一个人扶一个老太太过马路那么他更多的将这个视觉注意力放在老太太以及那个人和老太太那个交界的那个手的那个位置那么他扫描的次数越多呢我们就会说 OK 那他的道德知觉更多的是激励

是和傅老太太过马路这个事件是有个正向关系的但是后来他们发现也并不全是他们又做了另外一个实验这个实验是个思想案例了它是说在二战的时候我的家里的地下室里面是有很多犹太人的然后这时候纳粹来搜查这个村子那么我的怀里有个婴儿

這個嬰兒很有可能就會哭鬧那麼好了 現在就有個問題就是如果任這個孩子哭鬧整個地下室的這些猶太人都會被抓捕以及我們村裡的很多村民都會被納粹殺死那麼如果我用手努力的去捂這個嬰兒 把它捂死呢那麼這個嬰兒雖然死了 但是大家都得救了好 那麼怎麼判斷當時將這個案例 這個圖像給這個被視者的時候

如果按照上一个案例去思考的话那么我们应该会假设很多人去将那个视觉注意力放到那个五柱婴儿的手上结果并不是这些做出无死婴儿判断的人他们的视觉注意力全部在这个化矿的边缘那么也就是说呢虽然他在一个我们说按照一个功利主义或者按照边沁的这样的一种思路为了整体人的利益呢我们是应该把这个孩子无死的但是又出于他的道德直觉呢他不希望去看到这个孩子的死亡他

它會出一種通理性的方式去將視覺注意力漂移在這個畫的周圍這就是一個典型的是吧通過我們當代的一些技術通過眼動儀的方式去捕捉人類道德直覺的一種研究那麼這也是很多哲學家在做的一些領域當然很多人會將這個眼動儀和

脑电一结合起来是吧那么可以得出更多的更有意思的一些研究的一些结果那么当然有很多哲学家是跟道德心理学家在合作嘛来做这些研究的所以也是我们可以期待一下的这个里面我觉得挺有意思的就是这其实反映了人的信念的不那么坚决对吗对 这更多的体现了人类的认知的复杂性吧就是至少说在理性层面他可能坚持一种信念但是在情感上他坚持另外一种信念

那么这两种信件无法能洽的时候是吧那么它只能通过其他一种行为来弥合这种差别当然这个实验并不是做得非常严谨的如果是我的话我可能会做更多的对照案例或者是更多的一些细分的研究就比如说

如果那个婴儿是我怎么办如果他无死的是我我会怎样去看就是我觉得是需要通过一些更多的因为他无死的如果是一个不相干的婴儿嘛那他飘散自己的视觉可能是有可能的那是他相关的一个婴儿呢或者是他自己呢

他的视力注意力会不会集中在那个婴儿身上或者怎样那我们也不知道是吧当然还有一个前提是说如果将他和他相关的婴儿或者他自己放到那个位置上的时候被捂死的那个位置上的时候这个实验本身是不是合伦理的也是需要我们去关注的因为一个一个道德心理学实验它本身是不是道德的也是一个非常重要的前提嘛

对 当你们去做电车难题的时候其实你们最后结束需要告知这个实验者就参与这个实验的人对 实验结束的时候我把他们都放到一个天堂岛上海边的小岛大家无论是做出判断的人还是被撞的人大家都互相见一见面聊聊天这样来舒缓一下情绪

好了以上就是今天的节目感谢您的收听如果您喜欢我们的节目可以在 Podcast 小宇宙喜马拉雅网易云音乐等平台搜索 AI 课代表成为我们的订阅用户如果您对我们的节目有什么建议和意见或者您也是一位 AI 时代的弄潮儿欢迎给我们写邮件成为我们的下一位课代表邮箱地址可以在节目后面的 show note 里找到