We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 爱、死亡、机器人:和哲学家辩论10个科技伦理问题

爱、死亡、机器人:和哲学家辩论10个科技伦理问题

2024/7/22
logo of podcast AI课代表

AI课代表

AI Deep Dive AI Insights AI Chapters Transcript
People
朱林帆
Topics
朱林帆:哲学家关注AI伦理的抽象问题,例如AI是否具有自主性、能否产生情感等;而大众更关心AI对日常生活的影响,例如AI医疗影像诊断的错误、自动驾驶事故的责任归属等。 在AI出错时,人们对AI的责备程度往往高于对人类的责备,这可能与AI的相对自主性和人们对AI背后公司及政府监管的质疑有关。新技术的落地往往是机制性的结果,缺乏公众意见的征求,这也会导致公众的愤怒和无力感。 AI伴侣的出现引发了人们对人机关系的思考,人类对AI伴侣的爱是否真实,以及AI是否通过算法操纵人类情感,都是值得探讨的问题。AI难以产生真正的同情心和同理心,因为它无法理解生命的脆弱和有限性。 一些哲学家尝试利用AI进行“人类增强”,以优化人类决策和道德行为,但这面临着自由意志和功利主义考虑的挑战。阿西莫夫机器人三定律及其改进版反映了人机关系的演变和风险,AI不适合参与涉及人类深度价值判断的工作。 大型AI公司通过红队和白队攻防演练进行价值对齐,哲学家也参与其中,帮助分解价值并进行算法优化。然而,AI难以真正理解人类文化和情感的细微之处,例如诗歌的意境。机器智能的能耗远高于人类智能,AI伴侣产品也面临着算力成本问题。 许多AI哲学家同时也是动物伦理学家,将动物作为研究AI伦理的参照对象,但动物智能和AI智能的表现形式有所不同。通过机器学习破译动物语言可能带来伦理问题。对智能社会感到厌倦,并思考如何退出,以及数据销毁的重要性,也成为人们关注的议题。 哲学家开始使用实验方法研究人工智能伦理问题,例如使用眼动追踪技术研究人类道德直觉,但这同时也带来了一些伦理上的考量。

Deep Dive

Key Insights

为什么 AI 出事故,人类会更愤怒、更苛责?

人类对 AI 的责怪情绪更高,一方面是因为 AI 有相对自主性,像人一样可以自动控制和移动,另一方面是因为人们责怪其背后的互联网公司、科技公司和政府监管。AI 事故被视为结构性和机制性的结果,而非偶然事件,这导致了公众的无力感和愤怒。

和机器人可能有真爱吗?还是机器通过算法拿捏了我们?

人类对 AI 伴侣的感情可能是一种真实的爱,但也有可能是被算法操控的情感。AI 通过模拟人类情绪来增强互动,但这些情绪并非真实同理心的体现,而是通过算法计算的结果。这可能会破坏人类对爱情的理解,甚至对人类生存本质提出挑战。

AI 有可能演化出情感吗?

AI 通过大量数据和参数训练可以模拟人类情感,但目前无法真正理解或体验情感。AI 的情感生成是基于概率和计算,缺乏真实的生命体验和同理心。尽管 AI 可能在语言输出上不断改进,但要真正理解人类的情感仍需持怀疑态度。

AI 可以实现‘人类增强’的野心吗?

AI 通过优化决策和道德行为,可以实现一定程度的‘人类增强’,但真正的道德优化面临挑战。AI 的价值对齐需要分解为多个层面,通过算法实现。然而,人类的自由意志和功利考虑可能会影响 AI 提供的道德建议的实际应用。

阿西莫夫‘机器人三定律’中的人机关系过时了吗?

阿西莫夫的‘机器人三定律’在早期设定机器人永远作为人类的助手,避免奴役人类。但随着技术发展,机器人可能需要做出更复杂的道德判断。将全人类的福祉作为核心考虑时,机器人可能需要卷入更深层次的价值判断,这带来了新的伦理挑战。

OpenAI 这样的顶级大模型公司如何做价值对齐?

OpenAI 通过红队和白队的攻防演练,对敏感话题进行优化。红队不断测试模型的边界和底线,发现并修复问题。此外,公司内部有专门的价值对齐团队,通过哲学家和认知科学家的帮助,分解和实现复杂的道德价值。

哲学家如何用实验的方法研究科技伦理问题?

哲学家通过实验方法,如眼动仪和脑电图,研究人类的道德直觉。这些实验捕捉人类在道德情境中的视觉注意力和脑电活动,揭示理性与情感之间的复杂关系。通过这些实验,哲学家可以更好地理解人类的道德判断,并提出伦理规范。

Chapters
人们对AI事故的愤怒情绪高于对人类事故的愤怒情绪。这可能是因为AI事故的发生,往往是技术和制度的结构性问题,而非偶然事件,这导致人们产生无力感和愤怒。
  • 人们对AI事故的责怪程度高于人类事故
  • AI事故的发生是结构性和机制性的结果,而非偶然事件
  • 人们对AI事故的愤怒情绪源于对技术和制度的无力感

Shownotes Transcript

## 这10个问题分别是——

1、为什么 AI 出事故,人类会更愤怒、更苛责?

2、和机器人可能有真爱吗?还是机器通过算法拿捏了我们?

3、AI 有可能演化出情感吗?or,以死相逼,AI会愿意接受1+1=3吗?

4、AI 可以实现“人类增强”的野心吗?

5、阿西莫夫“机器人三定律”中的人机关系过时了吗?

6、OpenAI 这样的顶级大模型公司如何做价值对齐?

7、 哲学家让大模型理解为什么不能歧视女性,分几步?

8、AI 距离理解“无边落木萧萧下”还有多远?

9、 为什么很多 AI 哲学家都是动物伦理学家?or,动物智能+机器智能=人类?

10、哲学家如何用实验的方法研究科技伦理问题?

祝你收听愉快!

【本期课代表】

朱林蕃博士,复旦大学科技伦理人类未来研究院担任副研究员。研究领域为科学哲学、科技伦理。

【课代表观点】

00:11 哲学家关注抽象问题,大众关心AI对具体生活的影响

1:28 AI医学影像在欧美已经出现了问题

03:39 当AI出现错误,我们往往对它“Even Blame More”

3:52 庄子“空船理论”:人不会对没有主体性的船生闷气

05:36 新技术落地是“机制性”结果,却没有征求“我”的意见

7:13 人类对非人类伴侣的想法,在古希腊就出现了

9:43 为什么对AI 伴侣会有背叛感?是机器通过算法拿捏了我们?

12:35 以死相逼,AI会承认1+1=3吗?

14:22 硅基生命是永恒的,无法理解生命的脆弱性

16:00 “黑白玛丽”思想实验:了解和理解本质上不同

17:26 一些哲学家试图用AI做“人类增强”:更聪明、更“道德”

21:13 阿西莫夫新定律的危险:以集体名义牺牲个人

22:21 机器或许不该卷入深度的价值判断

24:34 OpenAI这些公司用红白攻防演练做价值对齐

27:00 哲学家已经加入AI的价值对齐

27:47 让大模型理解为什么不能歧视女性,分几步

29:38 国外大模型团队成员的“哲学家浓度”

30:58 更进一步,让AI理解“无边落木萧萧下”

32:43 和机器智能相比,人类的效率高得多、能耗低得多

33:41 AI伴侣产品普遍面临算力成本问题

35:12 哲学家讨论机器人,常常拿动物做标的

38:26 机器学习破解出了真菌的50多个单词

39:12 理解动物可能会走向可怕的结果

40:04 我经常思考如何退出智能社会

41:02 一定要考虑“数据销毁”的问题

41:55 用实验的方式研究科技伦理问题

43:50 用眼动仪发现人类真正的道德直觉

46:35 道德心理实验本身的伦理问题

【关于AI课代表】

「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。

每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。

邮箱:[email protected]

【制作团队】

策划:nada、大帅

后期:kk