We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 當AI成為日常:你不能不知的數位真相與風險

當AI成為日常:你不能不知的數位真相與風險

2025/3/18
logo of podcast 下班學AI,AI夜夜talk

下班學AI,AI夜夜talk

AI Deep Dive AI Chapters Transcript
People
阿峰老师
Topics
阿峰老师:我最近读了一本名为《AI的底层真相》的书,它揭示了AI光鲜亮丽背后的一些黑暗面。首先,AI的训练数据依赖于大量低薪国家的数据标注员,他们工作环境恶劣,薪资低廉,工时过长,并且需要接触大量令人不适的内容,例如车祸现场照片、色情暴力影片等,严重影响心理健康。这让我反思,我们在享受AI便利的同时,是否应该关注这些幕后贡献者的权益? 其次,Deepfake技术能够以假乱真,被用于诈骗、抹黑他人,甚至侵犯个人隐私,例如随意篡改照片或视频,让‘有图有真相’不再可靠。 此外,AI监控的普及也引发了隐私担忧。书中提到一个例子,一位黑人工程师因AI误判而被警察拦下,这体现了AI算法中存在的种族偏见。研究表明,AI在识别白人男性时准确率很高,但在识别深肤色女性时错误率高达35%。这种算法歧视不仅存在于执法领域,也可能出现在招聘、贷款、保险等方面,造成不公平的社会影响。 最后,AI算法本身也可能存在偏见,例如荷兰曾出现一个预测青少年犯罪的名单,名单上的人大多是黑人或摩洛哥人,这体现了AI算法中存在的种族偏见。因此,AI的发展不能只关注技术,更要重视伦理、法律和社会责任,确保AI技术被公平、公正地使用。我们需要共同努力,打造一个更安全、更公平、更美好的AI世界。

Deep Dive

Shownotes Transcript

今天阿峰老师要带你揭开 AI 世界那些不能说的秘密血汗数据工厂真假难辨的换脸技术还有可能冤枉你的演算法骑士准备好了吗我们来进入今天的 AI 夜夜潮吧

下班学 AI,AI E-Talk 让你下班轻松学 AI,上班得心应手运用大家好,我是阿峰老师大家有没有想过,现在我们生活周遭到处都是 AI 像是手机里面的修图软体,可以把照片变得更漂亮或者像银行的客服机器人,可以回答我们的问题这些都让人觉得,哇,AI 真是太方便了不过今天要跟大家聊的,不是 AI 有多厉害而是要来聊聊 AI 发展背后,那些我们可能没注意到但其实非常重要的事情

最近阿峰老师读了一本书叫做《AI 的底层真相》这本书就像一面镜子照出了 AI 光鲜亮力的背后那些比较黑暗比较不为人知的一面大家有没有听过《血汗工厂》

其实在 AI 的世界里也存在着类似的情况想想看 AI 为什么可以辨识人脸可以写文章可以开车那是因为他们看了非常非常多的资料而这些资料很多都是靠着一群隐形的工人一个字一张图慢慢标记出来的这些工人很多都在薪水比较低的国家像肯亚书里面就讲到一家叫做萨玛的公司他们专门在做 AI 训练阿峰老师有一次去参访类似的数据标注公司发现里面的员工每个人都盯着萤幕不断地重复同样的动作

我问他们在做什么他们说他们正在叫 AI 认识红绿灯斑马线听起来好像很简单对不对但是萨玛公司的员工他们看的东西可不是只有红绿灯斑马线他们还得看很多车祸现场的照片色情暴力的影片这些东西看久

对心理的影响非常大书里面就提到有些员工会做噩梦失眠甚至还得去看心理医生重点是他们心理很低工时又长工作环境非常糟糕这就让阿峰老师想到我们在享受 AI 带来的便利时是不是也应该要关心一下这些背后默默付出的人呢

接下来我们来聊聊另一个问题叫做 deep fake 中文叫做深度伪造大家有没有看过那种影片把一个人的脸换到另一个人的身上而且看起来跟真的一样这就是 deep fake 这种技术如果被拿来做坏事后果不堪设想像是之前有一个 APP

可以把照片里面的女生衣服脱掉这对女生来说是非常大的伤害除了个人的隐私 deepfake 也可能被用来诈骗抹黑别人想想看如果有人用你的脸你的声音去做一些你根本没做过的事情那该怎么办所以现在这个时代真的不能再相信有图有真相这句话了我们眼睛看到的耳朵听到的都有可能是假的

再来我们来聊聊监控的问题现在很多地方都有监视器有些还会用 AI 来辨识人脸这听起来好像很安全但是大家有没有想过我们的隐私会不会因此受到侵犯书里面讲到一个例子有一个黑人工程师开车在路上被警察拦下来

警察问他你怎么买得起这么好的车这就是一种歧视因为他是黑人所以警察就觉得他不可能有钱买好车更可怕的是 AI 也会有这种歧视有研究发现 AI 在辨识白人男性的时候几乎不会出错但是辨识肤色比较深的女性错误率竟然高达 35%如果 AI 常常认错人那会发生什么事书里面就讲到有人因为 AI 认错被冤枉关了好几天

所以我们希望 AI 可以保护我们但也不能让 AI 变成一个到处监视我们的工具这中间的平衡真的要好好拿捏最后我们来聊聊演算法歧视大家可能会觉得 AI 是电脑应该很客观很公正但其实 A 也会有偏见

而且 AI 的偏见很多时候是来自于训练他们的资料书里面讲到一个例子荷兰有一个名单上面列了一些被认为很可能犯罪的青少年后来又出现了另一个名单上面是这些青少年的弟弟妹妹问题是这些名单上的人很多都是黑人或摩洛哥人这就是一种歧视因为 AI 认为这些人比较容易犯罪这种歧视不只会发生在犯罪预测上

企业在找工作银行在借钱保险公司在算保费的时候如果用 AI 来做决定也可能会发生同样的问题所以 AI 的发展真的不能只看技术还必须要考虑到伦理法律社会责任今天跟大家分享了这么多主要就是希望让大家了解 AI 虽然很厉害但也不是万能的

我们在享受 AI 带来的好处时也要注意 AI 可能带来的问题 AI 的未来不是只有工程师的事情而是我们每一个人的事情我们都需要更了解 AI 才能一起打造一个更安全更公平更美好的 AI 世界不知道大家听完今天的节目有没有什么想法呢欢迎大家留言跟阿峰老师分享大家还想听什么跟 AI 有关的内容也可以告诉我

最后在今天节目的最后阿峰老师陈彻邀请大家分享你们对于 AI 的看法以及未来希望在本节目中听到哪些 AI 技术的探讨若大家对 AI 课程有兴趣我们备有针对组织部门中高阶主管的 AI 趋势课程以及针对基层员工的客制化手把守 AI 工作坊欢迎随时与阿峰老师联系

最后若大家对 AI 工作流程自动化等议题感兴趣也可以以 Google 搜寻 AI 风格在方格子有许多部落格文章相信能为大家带来启发今天的节目就到这边阿峰老师期待大家都能有所收获明天再与大家在节目当中相会请订阅我们的节目以免错过任何精彩内容下次见