欢迎来到好声音今天要介绍一本书叫做 AI 的底层真相它的副标题叫做如何避免数位渗透的阴影作者是穆吉亚这本书呢其实不是教我们怎么去运用 AI 的也不是告诉我们说 AI 基本上让大家能够做得多好它的标题就讲了底层真相它其实要告诉我们就是不能不知道
人工智慧的多重面貌我觉得多元思维是很重要的尤其好哥我记得以前在学经济学的时候常会告诉我们说不要只看到它的正面也要看它的反面整体的效益才是很重要因为最近又看《易经》会让我更大的感受就是所有世界基本上都有黑有白的不要让我们的偏执只看到好的一面那也要看到不好的一面倒不是说因为看到好的一面看到不好的一面就让我们不要做了
反而是因为看到好的一面跟看到不好一面的时候呢才让我们更多的选择权知道该怎么做会比较好而不太会有执念所以在书里面说了不能不知道人工智慧的多重面貌呢他特别拎出来了四个最重要的关键词叫做劳动博学深度伪造全面监控跟滥用各自事实上这本书非常好看呢因为
穆吉亚他本身就是一个文字工作者非常多年所以里面讲的这些故事非常精彩所以好哥先针对这四个拎出一些重要的故事跟大家去描述让大家有机会还是可以把这本书带回家好好看这本书里面很多的故事你会发现原来 AI 有很多的地方是我们看不见的其实坦白讲 AI 是两面刃就像我常常喜欢说的两句话很多的时候是最好的时代也是最坏的时代
那怎么样知道使用它的好那知道避开它的坏这才是我们要去学习的其实 AI 在最深层的面貌并没有这么的亮丽我想大家慢慢能够感知到了尤其是这种 AI 就好像你不做事他都知道你要做什么事好像一开始穆吉亚就说了大家可能听过 cookie 这个英文字母 C-O-O-K-I-E 什么叫做 cookie 呢简单讲就是我们在网络上任何在浏览的过程当中它都会留下你所有的浏览记录
你不管消费也好看网站也好看剧也好都会留下你任何的记录而这些记录如果把汇整起来就形成你一个行为模式你自己都不知道你是长成这样的行为模式的所以有一次穆吉亚就特别找一家公司
把他在网络上面所有针对他的手机也好电脑也好留下的所有 cookie 资料汇总在一块然后针对这样的一个 cookie 资料去描述一个透过他的轨迹这个人是长得什么样子他可能喜欢什么他想要什么他的目标是什么他的梦想是什么然后把它做一个描述之后这个木吉阿姨看到之后想说吓死人了描述出来的人就是他自己而且比他自己还更懂他自己
所以什么叫做 cookiecookie 就是透过我们反走过必留下痕迹的这些标记好像看起来没有把穆吉亚这个人名放在上面别人不知道你是谁但是他知道你这个人是长成这个样子也可以知道你是谁而这件事情标记这两个字就很重要了什么叫标记如果你今天完全都没有在网络上面留下任何的记录你就不会让别人知道你是谁
所以换句话讲是因为你使用了这些工具你被标记下来之后他其实才可以用测写的方式也就是行为的方式去把你给记录下来这也就进入到我们今天好哥针对劳动剥削深度伪造全面监控跟滥用各自的第一块劳动剥削了他讲的是什么呢我们在看待 AI 产业的过程当中有一些隐形的工人我们是看不到的这隐形的工人呢
穆基雅作者说他是被剥削的社群媒体的内容审查员他谈到一家公司这家公司叫萨玛公司他是一个专门 AI 训练服务的公司在肯亚其实认真说起来我们真实世界这些 AI 其实没有这么自主的我们看这 AI 好像都知道该有哪些资料怎么去汇整大家有没有想过它其实是一个辅助的技术
从 2009 年开始我们就开始密集的使用网际网络产生大量资料就像好哥刚刚说的加上这些晶片运算能力越来越强化的话 AI 技术突飞猛进是因为大量的资料跟大量的技术的能力突飞猛进我们才可以汇集起来说我只要改他的资讯他可以猜出或推测出来是什么东西他核心的技术好哥把这个技术名称说给大家听一下叫做机器的学习跟衍生的深度学习
其实他都在教这些电脑软体怎么从大量的资料中找出统计的相关性不管是文字影像程式或数字所以找出相关性这些模式就是让 AI 看了数百万个标记好的这些范例然后把它凑集起来比如说圆形的这些什么东西圆形里面再空空的多看几次这个叫甜甜圈不要小看这些方法既然要标记的话
不是像我们走路这个样子你也要由人走这么多人走才行这些方法就需要人类很用心去把它标记出来
所以需要标记这些资料量非常非常大你说影片看完之后比如说一个所谓自动驾驶的车子他看到一个红绿灯要停下来看到斑马线要停下来看到人要停下来那总要让电脑知道前面这个叫红绿灯前面这个叫斑马线前面这个叫做人而这些东西它都不是无中生有都是有人去把标记出来放在电脑里面之后
AI 才能够去认识他才能够去真正碰到的时候透过很短时间的计算知道我要停下来而这些方法都需要人费心的标记的话坦白讲谁愿意标记这些东西人工特别贵所以公司很多这些 AI 服务公司就把服务外包给一些收入较低的国家比如说陶黎的书里面写的比如陶黎家园的叙利亚的医师
经济严重衰退的委内瑞拉失业的大学毕业生贫穷的穆斯林等等贾纳是 SAMA 做 AI 服的创办人他在 2008 年的时候创办的在 2019 年的时候告诉作者说他说矽谷有一个非常大的奢望就是觉得所有的 AI 都自动化但是说一切都是伪装毕竟在背后出力的全都是人类
由于像这一个章节里面他特别提到内容审查工作是非常具有挑战性的为什么具有挑战在 2023 年之前萨玛公司在肯亚他主办公室楼旁边叫蒙巴沙路上面距离这个主办公楼标记办公室几分钟的车程还有一个非常低矮不起眼的混泥土的建筑物
他干嘛他同时训练公司的 AI 系统做很重要的关键什么关键呢专门服务 Meta 这个客户主要是移除脸书和 IG 平台上面一些非法和令人不安的内容这我们想要知道各种非法或不安内容都把这拿掉他不是自动要拿掉的要告诉他这要拿掉电脑才知道拿掉同时在人去做这件事情的时候也训练 AI 的系统做同样的事情
所以作者没有办法实际进入这些工作楼层因为 Meta 就是 FB 脸书规定这些保密协议让这些员工必须处理这些有害内容不能被看见但是萨玛创办就跟他们分享这些男男女女很可怜他要看各种不同包含无人机大家听这一段无人机造成的残破尸体要看一些儿童的色情
甚至是跟野兽相间的情况恋尸癖还有自杀的影片然后干嘛把它过滤掉当这些人把它过滤掉之后然后我们就是我们看这些 FB 或看这些社群媒体才不会看见但是作者说了这些人在看这些的过程当中他们会经年累月的做噩梦甚至有人会吃抗忧郁药有些人远离家庭再也没有办法亲近自己的孩子心中有阴影啊
跟战后郑厚群是一样的而这个内容审查在他萨玛业务里面只占 2%而在 2023 年年初的时候很多起的诉讼都被提告所以他们就退出了内容审查业务关闭了整个办公室甚至其中有一个工作人员叫莫唐他是 27 岁的南非移民他说老家本来住在南非约翰尼斯堡的郊外乡村来到肯亚本来很开心的
但工作上面要处理什么呢要处理一些活人的献祭斩首还有仇恨言论跟儿童虐待的影像最重要关键是他就是一个被压榨老公每个小时只有 2.2 美元虽然工作是判断图形的素材是不是合法他不需要去标记但坦白讲大家想想看你看的每天看到这些非常残酷残忍跟让自己没有办法进入眼睛的这些图像的话
你要怎么有办法去让自己心里能够在很平和的状态之下去做好这个工作所以莫唐说脸书设计的审查系统坦白讲不仅伤害他们而更重要的关键是还要设计起来去计算这些人在审查的过程当中有多少花的休息时间所以他说在 SAMA 就是这家公司里面所有员工跟主管每天都有休息的配额除了固定的午休跟上厕所之外都不能休息
所以后来莫唐上法庭的时候他的律师就说在他看来像上马公司的客户基本上都在走我们过去标准外包商的老路尤其是 Meta 尤其他特别有一段话在书里面写得非常的揪心他说以前我们在时尚圈或资讯科技里面传统外包产业造成巨大的这种鸿沟跟贫富不均的情况
到了现在目前 AI 所谓资料的劳力产业坦白讲是重蹈覆辙人们觉着好像有 AI 的幻觉以为这份工作很独特但事实上观察这些 AI 开发的过程里面包含好哥刚刚讲的这些劳力密集的过程里面很多工厂里面 90%的时间的人都不知道自己在做跟 AI 相关的工作为什么因为 AI 被拆解的非常零碎
所以穆吉亚特别提醒我们什么叫做劳动的剥削他说 AI 产业给了人们一点机会又不会太多以免他们反抗让他们够接近又不会太接近他说基本上我们从来都没有离开所谓的殖民主义的根源和影子
所以这是一个非常重要的反思也让我们都看见当我们在享受 AI 的过程当中是不是我们也让 AI 它的过程里面让一些人受到了非常大的伤害第二个就讲到深度伪造了我想深度伪造的话大家最近这几年来尤其是 CHAPGPT 起来的时候包含诈骗用深度伪造的事情层出不穷大家都有感受
他说 AI 伪造的影像跟声音现在几乎是已经以假乱真了有一个特别提到一个诗人叫莫特他这个小说家也是个传记作家住在英国的雪菲尔有一次 2020 年的 11 月那时候是 COVID-19 流行的时候有一次他一个认识的朋友邻居一早就叩叩叩敲门问他说莫特他是女孩问他可不可以谈一件重要的事情一开始莫特很紧张以为他的儿子刚送去托儿所是不是又犯错了
而敲门的男生他说为了隐私权 莫特我可不可以进到你屋内这样的一个要求让他感觉到还不是很舒服但没想到这男生进去之后就跟他说莫特不好意思跟你讲一下我在浏览色情网站的时候好像看到你的相片了这件事情让我感到非常的不安说完之后还给他了一个网站的连结
而莫特呢自己假装没有发生这件事情让自己好好的过完这一天但是重点是他说他没有办法假装因为毕竟这个邻居也是家长尤其当他去托儿所接孩子的时候他感觉到一种被打量的感觉就是别人会盯着他看的感觉从他生活就产生了很大的变化
然后事实上他也说包含跟作者在分享的过程里面他说这样的事情层出不穷在 2019 年的时候还有一个非常重要的 APP 的应用程式叫做深裸哇这名字取的也是非常骇人听闻就深就深深的深裸就裸体的裸英文叫 deep nude 你只要用 50 块美金的代价你可以上传任何女性清凉的照片然后 AI 就可以把它脱掉
这个吓死了这虽然是静态的但现在目前静态给变动态的作者说因为这样的技术越来越厉害之后我们要从远端来伤害每个人变得非常的便利因为网络的远端存取特性还有全球的触及能力它已经变成一个倍增的效应了所以人们对于隐私还有生育和职业造成的伤害变得非常的深远和赤教为什么因为以假乱真
所以后来好哥看到这一段我自己写下了个笔记我说以前叫有图有真相现在变成有图不一定有真相因为以假可以乱真所以谣言止于智者这件事情在我们这个时代就变得更加重要所以好哥想借这个机会跟大家分享当你看到任何的图像的时候到我们这边如果是不好的话就停掉了因为你不知道它是真的还是假的而第三个部分我们讲到深度伪造
有另外一个看起来是好的事情但事实上也在了造成了非常负面的影响就叫做全面监控了他的副标题啊在这上面讲说自动化的人脸辨识啊通常会为了安全把我们的隐私权给就献上去了他没讲那个故事叫做迪卡内克然后他的父亲本身是一个德国人母亲是个黑人啊
他在 1995 年的时候夏天第一次因为黑人驾驶被拦下来盘查黑人驾驶他就用框框框起来驾驶就驾驶因为没犯罪但是因为是黑人 1995 年的时候李卡内克才 25 岁刚且刚获得工程师资格很厉害在哪里工作在美国国防部工作
地点在罗德岛的罗德岛州的纽伯特这是一个非常有钱的城市通常在有钱的城市里面坦白讲都是一些高级知识分子去那年夏天他因为毕业了然后到工程师有了工作了买了人生第一辆好车是车联两年的 affinity 很开心二手车他开价大概 3 万多美元
开着开着突然警察就把他拦下来了拦下来就算了调查一堆资料他本来是不想管的事实上可以不管的大家要知道有机会的话去了解一下如果警察要拦路或者是盘查你的话一定要有特殊的理由但他不想太麻烦所以反而让警察得寸进尺得寸进尺就算了到最后警察拿了他的身份证跟他盘查的过程当中问了他一句话他说 wow this is a good car 就是一辆好车
然后问他说你怎么买得起大家把这句话放在心里面什么叫做这次让好策你怎么买得起所有盘查的过程就是因为他是黑人而因为他是黑人认为他怎么买得起就这一连串的盘问跟结问大家可以听出来这是一个种族歧视而这个种族歧视为什么跟 AI 相关呢
所有的 AI 都是人为把相关的资讯跟判定加在 AI 里面 AI 就是以前我们讲的 ITIT 叫做 garbage in garbage out 就是你给他什么资料他就做什么判断所以种族歧视他想带出来的结果是不是只有警察才会种族歧视 AI 也是他说麻省理工学院跟微软三名的女性黑人女性研究员他曾经发表过一篇论文
针对 IBM 还有微软这些大公司他们打造的脸部辨识系统去比较这些准确度结果发现如果辨别浅肤色不管是白颜或浅肤色的男性的错误率就不到 1%
但是如果是辨别一些肤色比较深的女性就帮两个一个叫做种族肤色深还有是性别女性错误率高达 35%35 倍吓死人什么叫做误判误判的话就有可能在你整个未来一连串的过程当中造成很大的伤害
像其中里面有个小故事就讲纽泽西州一个居民叫帕克斯在 2019 年的时候遭到指控说他偷窃而且攻击警察结果最后证明这个被关了十天还花好几千元为自己辩抚结果证明这个 33 岁的黑人是被警方所使用的脸部辨识系统给误认的
然后同样无独有偶在 2020 年底特律一个居民叫威廉斯当着家人的面被逮捕理由是他犯下了偷窃罪结果又是一个另外一个脸部辨识比对错误所造成的冤案所以作者说我们通常面临的问题啊
它不是一个演算法的问题而是一个人类基本上误判的问题他说在伦敦有 90 万只闭路电视这些闭路电视都在监视的人而在这种情况之下使用这些软体会有一个很可怕的现象为什么因为软体一旦使用之后你就弱化了警察他个人的决定权了因为警察就把他决定权交给这些闭路电视交给这些 AI 判定了同时也削弱了警察的观察力和直觉
所以这是一个一体两面除了有所谓的种族歧视或者是因为我们把我们的认知放在 AI 里面造成 AI 误判之外也降低了我们把所有的决定权跟判断权交给了 AI 之后人为判断的弱化所以曾经有一句话说厉害的人用 AI 会变得更厉害不厉害的人用 AI 会变得更不厉害这是我们非常认真提醒我们自己的而且关键又来了
脸部辨识的技术是一个没有相关技术或伦理标准的黑盒子很容易带来权力的滥用作者说很怕这些政府单位会把这些 AI 监视器变成去监视一些公民他在发表言论的时候就压榨的工具简单讲就监视的概念会被当权者伪装成国家的安全
虽然我们知道这个 AI 它是一个很重要的趋势没有办法走回头路但真正要提醒我们的是怎么样在使用 AI 的过程当中不要随随便便把我们的隐私权变成是一个国家拿着安全的旗号而窃取我们隐私权非常重要的关键这个还是要回到我们大家的共识才是更重要的第 4 个就讲到滥用个资了演算法给的犯罪预言很容易放下
放大我们每一个人他的做错的关键他里面讲的故事也非常精彩他说有一个妈妈叫萨乔她的儿子叫达米安在 2016 年的时候被列入了暴力犯罪青少年名单他叫 Top 600 就是 Top 600 这个在荷兰他的弟弟是 16 岁然后他的弟弟啥事都没干叫做纳法约也被登记在 Top 400 这不是冤了吗
为什么因为阿姆斯坦的市长叫哈尔赛马他在一封用荷兰语言写的信件里面跟这些被列入 Top600 就是最高 600 的犯罪嫌疑犯跟 Top400 可能的嫌疑犯里面说了他说我们这些是特别挑选出来的 400 个人而这些预测的分数刮胡说什么这些目标是要防止犯罪
改善这些人的机会跟生活品质避免这些人因为他靠近这些犯罪分子将来他对这些还没有犯罪但是未成年的兄弟姐妹们会产生负面的影响我说这个如果不是贴标签那什么叫做贴标签回过头来我们刚讲这个 TOP600 这些男孩他真的是有些犯罪记录了但是这些 TOP400 是由机器学习的系统在荷兰叫做 Pro Kids
所协助的这套系统基本上学者和荷兰警方一起设计的干嘛去预测年轻人他未来会有高风险犯下暴力犯罪或财产犯罪萨乔说他听到这些演算法跟使用里面资料他就觉得有问题照理来讲是不应该分种族的可是被挑出来的所有男孩都是黑人或是摩洛哥人
沙桥说他们在信里面写的不是说基本上帮助你将来脱离犯罪简单讲应该说我会帮助你进入地狱为什么贴了标签所以 AI 不会辨别说你是不是有成见如果我们的假设前提就是你这些人将来可能会犯罪而把你贴上一个你可能会犯罪的标签的话大家知道吗很多标签基本上是行为导入的开始
所以結論這件事情從來就是常見而政治跟論語的問題從來不是 AIAI 的工具是沒有同情心的我看到這一段的時候也提醒大家有機會可以去回頭看好哥非常喜歡這部電影 2002 年的電影叫關鍵報告是 Tom Cruise 演的他那份報告就是用預測 AI 的一個所謂非常重要的影像去抓就是你未來會犯罪我就先抓你
什么叫做未来犯罪就会先抓你现在大家都知道平行宇宙了什么叫平行宇宙就是每一个决策在你起心动念一刹那它都会有一个不一样的路径走向未来如果说每一个微小的决定都会影响未来发展你怎么知道你预测未来它一定会发生所以 AI 只是参考不要全盘接收过去不代表未来未来从现在开始
所以统计数据它只能代表过去它没有办法决定我们未来会长成什么样子这个才是我们在看待不管是劳动剥削深度伪造或全面监控和滥用各自好哥挑出来几个在书里面特别重要的故事让我们大家可以再使用 AI 让我们人生感觉上比较
方便便利然后过得更好的过程当中知道它带来可能有一些负面的影响而这只是 AI 负面影响的一小部分让我们理解不是让大家不要用 AI 而是要提醒干嘛呢
无脑的就全盘的依赖 AI 它不是一件好事要了解它有哪些好它有哪些不好这个 AI 的机制很重要我们才会集合大家众人之力去积极参与并且设定一些相关的法律的制定你只有让 AI 的发展更加的透明跟包容的时候真正要四个字大家放心你们要以人为本我们才能够成为 AI 的主人因为 AI 打造美好的未来跟我们都有关系的
因为据我们中国人的老话福祸相宜这是最好的时代也是最坏的时代如果我们讲 AI 叫人工智慧的话如果我们真正要人工智慧成为我们真正为人类带来福祉的工具我想最后还是要依赖我们这些真人是不是有足够的智慧才会让 AI 这个人工智慧让我们过得更好让我们过得更有智慧 OK 我们下本书再见拜拜好声音我们下一集再见
嗯