Hello 各位听众大家好欢迎收听最新一集的博音今天这一集的来宾呢是我期待非常久的来宾因为我们没过一阵子呢我们就会来讨论一下说 AI 这个东西有多棒那上一次的来宾是已经身在开公司啊这种那我们今天找来的是比较在学术界里面我会知道这个老师也是因为他当初回台湾的时候看到很多的新闻那今天非常开心可以邀请到陈玉龙老师
大家好 我是 Vivian 陳韻農在開始之前因為我覺得現在的各種大型語言模型或是一些自然語言處理這個詞有點爛大街了所以可不可以請老師稍微說明一下就是您本身的研究領域在做什麼簡單來講的話 我的研究做的就是對話系統你可以把它想成就是讓機器它可以跟人進行對話這件事情
那现在就已经延伸到现在 TradeGP 大家已经更能够理解说我们跟机器是可以进行很像人跟人这样流畅自然的对话包含到你要怎么理解人类说的话理解之后你要怎么应对
就是理解是一件事情 應對是另外一件事情然後應對了之後 你可能還要多輪其實也包含到很多心理學的行為啊怎麼應對可能比較好或是當我有一點不確定的時候 我應該要訪問他還是說自己腦補喔 大概是這樣吧然後就直接繼續下去了就是應該怎麼做比較好其實也沒有一個很明確的定論所以都是一個還蠻有趣的議題所以主要研究就是著重在對話系統
了解我刚想到几个东西第一个比较生活化的问题是你现在还会用打字的跟 AI 讲话吗还是就直接用语音输入我个人还是蛮习惯用打字的真的喔对你会用讲的我都用讲的因为我发现他现在的那个辨识正确率还蛮高的然后我就觉得手机超级慢电脑还可以接受但是我直接啪啪啪讲然后送出我也不更正那个错字然后他就会知道我是什么意思
我觉得这可能是一个习惯的问题就是如果你现在刚开始然后比较大量的使用可能就很容易就直接进入到你就直接讲就好但是我一开始用的时候它辨识的那个错误率还是蛮高的所以你每次就要在那边更正你就会觉得很烦所以其实蛮习惯就是我就用打的
而且因为大部分时候我其实用电脑然后在外面如果这样讲出来可能会有点害羞所以我其实还是比较习惯用打的了解了解然后我刚刚有一个觉得很好奇的是为什么机器需要学会怎么跟人应对进退就我的意思是说有些我可以理解我记得以前大学外文系嘛然后有学过语言学概论里面有个东西叫做语用学
那渔用学就是说我们日常生活对谈有几个大原则好比说你回答需要多提供资讯或是你提供资讯需要跟上一个问题是有关联的你不能跳出去讲另外一个跟这个有关吗还是他连礼貌那种不要冒犯到使用者这些都需要学
当然它可以有更广的使用情境可以是基本它只要能够理解你然后能够把固定的资讯拿到就行了所以你可以发现之前那种 CEU 比较像是这种它可能也不太会说一定要很有礼貌或是什么但是到现在发展的越来越多你就会发现说机器如果同样它是寻求你资讯它用礼貌点的方式讲
或是它突兀一点讲或是 aggressive 一点讲会不会不一样不知道嘛所以其实还是会去做一些这样的测试那为什么会希望机器能够
跟人類對話呢其實原因其實就是因為我們小時候啊比如說看很多電影想像中未來的技術未來的科技不就是人類只需要出一張嘴後面有很多機器就會自動幫你做到嗎所以我就不用自己去做嘛所以我覺得在以前的那些
電影裡面我們就會幻想未來的世界其實就會有一個很聰明的機器它可以理解你的需求當然最理想就是它可以直接跟你的腦子連接在一起你用想的它就可以理解到但這可能是未來的目標啦那現在就至少是你講出來它可以理解你那先做這一塊所以我們就是先看說能不能讓機器可以理解人類的語言那理解之後呢它就可以根據它的理解然後去幫你做你想要做的事情
对 你就不用自己去做了就可以指挥它 OK 我刚刚听到一个是就是用不同的语气反问人类可能会得到不一样的答案在你的研究里面有让他自己有这样的能力然后他会主动地试试看不同的语气吗我研究里面有一个比较接近然后也比较有趣的是近期有做一个小实验那这个实验其实就是我们让同一个机器然后它是一个推销机器人
你可以想像他就是从你聊的过程中然后去推销你可能有兴趣的这个产品然后我们就分析说当这个顾客他是不同的 MBTI 的时候对他推销的结果会不会有什么不同然后我们就发现某一些维度类型的人比较容易被推销成功对所以
下一步我们想做的就是如果我们可以了解使用者的个性会不会他其实可以发展出更符合这个个性的推销方式就比如说你可能是 N 人我可能就用某种方式推销你就比较容易购买你是 S 人的话我要用另外一种说服的方式所以
這個跟語氣雖然沒有那麼相似可是概念上是類似的就是可以客製化個人化你的需求就像有些人你就是要好好的跟他講他才願意聽那如果你很粗魯的問他問題他就不想回答你啊對但是另外一些人可能就不會
所以我觉得牵扯到人就需要考虑每一个人可能会有不同的个性不同的喜好所以实验难做的点其实也是在这边因为通常我们在做研究的实验就是希望同样一组你可以在不同的人的身上都可以有同样的效果
可是因为每一个人都是独一无二的所以其实很难有直接的结果说我这个方法就是所有的人都适用我想到一件事因为我自己在使用 ChatGP 的时候我发现它最下面你可以按它赞或是导赞我自己会觉得那个 feedback 很重要我非常频繁地在按然后我骂也会骂得很凶可是我称赞也会称赞得非常过头应该说我想要把变异拉大
来让他知道他回答的到底多好或多烂总之我每次在用的时候我老婆在旁边看说你到底为什么要称赞一个机器人我说称赞他很重要称赞他很重要啊就跟称赞人一样啊你要给他这个鼓励他才知道说这样做是对的他下次就会继续这样做嗯
所以假设他发现说我特别喜欢他回答一堆数据的时候我说非常好我更了解了这个他就会以后更常丢数据给我是的所以我想要知道他背后是在发生什么事情因为他生成答案的时候
不就是他的训练资料然后他会以某种几率的方式生成下一个字这样子那他如果知道我的使用习惯是他会加大我喜欢的东西的权重这样子吗概念上是类似的实际上的做法你可以把它想成是他可以生很多个不同的答案对不对然后有一些答案可能你会觉得比较好有些答案你觉得比较差但他一开始不知道所以呢他的机制其实就是
你给的那个赞或是倒赞你就像是一个老师告诉他说这一条路径这个生成的结果你觉得是高分还是低分其实学生在一直写作文一直写作文一个老师一直改他的作文学生就会渐渐的也会学到怎样写这个老师会给他高分嘛所以他渐渐的就学到这些 pattern 你在这个过程中你也是让他去学到说怎样的回答是你喜欢的回答
之后他在生成的时候他就会上升这一个你会比较喜欢的回答的几率所以他就比较容易走那一条路因为有另外的东西我感觉个人化就是为了使用者他去调整自己的东西跟叫他来做某一种角色扮演他在
实际发生的事情上面不一样吗就是说想像你是一个老师或者想像你在教一个五岁的小朋友某个道理他做的事情跟刚才讲的那个是一样的吗其实有一点不一样就是你原本平常在用的时候机器它的角色就是一个助理通常我们在这个模型开始的时候我们会告诉他说你是一个 AI Assistant 然后你的目标呢可能就是完成使用者现在给你下的指令对
一開始就告訴他就是跟他講說你的角色就是一個助理喔你不要幻想你是一個人類大概是這個感覺然後他就開始
滿足使用者嘛那如果是角色扮演的話我一開始告訴他的時候就會跟他講說你現在是一個醫生然後你的任務呢比如說你是一個外科的醫生那你平常工作就是怎樣怎樣你對什麼東西非常的有熱忱怎樣的你就給他一個人設然後他就會進入這個角色裡面所以你現在跟他對話的時候你就在跟這個角色對話嗯
所以他不一定会跟他是一个 assistant 的时候给你同样的回应就比如说你同样一个问题你问
assistant 跟你問這個扮演醫生的這個角色可能扮演醫生的這個機器他就會回你一些跟醫療相關的方面的內容所以他就會跟他是一個 assistant 會有一些不一樣的回應對那角色扮演有幾個應用啦一個應用就是有趣嘛你就可以讓他模擬某一個比如說卡通人物然後好像你在跟這個卡通人物對話雖然有點空虛但是反正就是很多人喜歡啦也可以模擬
比如说女朋友就一个虚拟女友的概念更实用一点的情况就是如果我们现在想要做一个决定好了那我希望这个决定是能够有很多不同专家他们共同讨论出来的决定一开始如果你叫这个 AI 帮你分析一下可能会有什么考量哪一个决定会比较好他可能就只能从他的面向来分析嘛那如果我现在可以用很多个 AI
都是同一個模型喔但是我叫 A 模型說你現在扮演醫生那 B 模型現在扮演律師 C 模型扮演學生他們各自就可以從他們的角度去描述覺得哪一個決策可能比較好然後你就可以讓他們一起討論然後最後得到一個更多意見然後最後得出來的結果
所以有一些人这样用去模拟一个真实世界中各个不同职业啊他们在意的点然后最后根据这个判断哪一个判断可能是一个比较好的决定假设他扮演的是医生他并不是用他所有的训练资料套
套上一个医生滤镜才变成医生它是一开始的训练资料都只有跟就是可能医生讲没有没有不是不是全部的训练资料是一开始是一模一样的就同一个模型那为什么会得出更不一样的答案就是它不是都同一套然后同一个引擎然后套就是我是戴医生帽子厨师帽子什么的
然后在讨论要怎么得出比一开始这个更多的东西有点像是你如果让一个模型然后跟他讲说你先扮演医生再扮演律师那其实他在扮演律师的时候他前面其实就已经看到他扮演过医生了嘛对不对所以你可能很难让他就是叫他忘记你忘记你忘记你之前扮演过医生你现在就是律师他就是无法忘记啊因为资料就是在他脑子里嘛他就看得到
但是如果你把这两个独立切开一个他就是扮演医生一个他就是扮演律师那扮演医生的那一个他就会沉浸在他扮演医生的世界中扮演律师就沉浸在他扮演律师的世界中所以他们两个的这样子的
產生出來的資料會跟你叫一個模型他同時去扮演很多個不同然後在同一個對話裡面做出來的可以更多元就有一點點像是第三者看事情他都可以看得比較透徹嘛因為他們自己沒有陷入這個情境但是當你
但是当你已经陷入情境你跟他讲说你不要一直沉浸在里面啊你要当成第三者来看他出不来他就是出不来好 这个好有趣哦因为我刚刚想到一个是因为我个人在使用上我现在买的是 Tragic P 的那个 20 美金版本还没有到 200 美金每个月就是也不是每个我不知道是多久一段时间但是 O1 是有扣打的嗯
然后用完就没了就要退到比较烂的引擎可是他也记得他之前的那个对话记录就是他的记忆还在那所以刚才的那个角色扮演他会继承某一种记忆的这个东西有办法用不同引擎吗我的意思是说不同智商的把它视为不同的角色然后让他变更聪明吗其实你在用的时候左边会有很多的对话视窗嘛
然後這個視窗比如說你打開一個就是你可能之前對話的記錄你直接在下面繼續問的話它其實就是記成前面已經有過這些對話它就繼續下去但是如果你開一個新的它其實就算是一個新的腦所以如果你要它忘記之前你寫的這個東西你就開一個新的視窗那如果是不同的模型
在同一個對話的視窗裡面應該也可以切換然後他就會把之前對話的東西等於是他就可以看到假設他之前已經講了這些然後現在你在問他他會怎麼繼續是可以切換的然後你也可以自己決定你要不要他看到前面你之前打的這些你把它叉叉開一個新的就等於是重新開啟一個新的對話他就是一個完全沒有之前知識的東西嗯
嗯我的意思其實是說假設我只切換那個 4O 跟 O14O 我們就比喻他是一個國中生好了啊他講出來的話就是國中生程度對對對對突然他變成很聰明就講 O1 是大學程度的然後哇又有新的見解怎麼樣可是因為扣打用完了所以要退回國中生智商可是那個國中生回去看說喔呦原來我以前講過這麼深奧的東西對對對有沒有辦法激發他做更好的表現有可能喔
有可能但不一定举例来说如果这个国中生看的那一个大学生的 level 然后他那个相较上还算不会太难比如说你问他是一个还可以理解的问题那他看了这些详解他看了他当时思考的这些内容那他有可能是可以理解的所以他可以比他原本什么都不看来得更好但是也有可能他支持努顿对支持努顿对他来讲反而
反正就是完全看不懂天书所以就跟你没给他是一样的就你有没有给他看这个能不能激发他的能力要考量到他自己的能力跟你给他这个之间能不能够足够接近然后又可以把他的能力 boost 上来其实跟人类也是一样你给他差太多程度的东西他还是没办法进步所以最理想最容易进步的就是对他来讲他有一点点会
但是又做不太对这种题目就是他要多练习那样他才会进步那就给他太难的他就是完全不会啊那你给他做再多其实也不会进步了解对啊我们在开录之前有稍微闲聊一下因为我现在的那个创作都在跟 AI 共事然后把太难的东西切成他可以完成的小区块然后逐渐把那个积木堆起来好像是训练上面蛮重要的步骤这样子对其实这有一个在
在研究上面蠻有名的詞彙叫做 Chain of Thought 就是一連串的思考的過程所以有點像是你在做某一個任務這個一開始你可能是一個題目然後最後得到這個答案中間你到底是怎麼思考的其實就是你要把它切成很多個小塊所以像你從什麼都沒有然後要寫出一個很好的比如說小說
你直接叫他写一个好小说给我他当然做不到啊那你怎么能够把它切成小块小块然后告诉他说我一开始我可能会需要铺成故事大纲然后我会做什么什么事情然后切成很多块然后慢慢地教他然后他每一块每一块知道怎么做了之后就比较有可能更接近你想要的这个结果嗯
不太可能一触可及了解那我有偷看一下陈教授发的一些文章但我没有因为我又没学过我一定不会所以我就是把它丢进 chartgpt 然后说你跟我解释一下这个 paper 在讲什么你把我当几岁小孩所以有看到几个概念我觉得蛮有趣的可以我们稍微来讨论一下吗好第一个是看到某些论文好像是要这个 AI 思考的方式朝着某一种更简约的方式或者更人性化的思考方式
然后我这边有稍微做一下笔记就一些 slot gatetree transformer 或是 speak freely 这样子那想要问教授的一个问题是这些灵感是怎么来的我看的时候我的感觉很像是就是现在不是 Apple Vision Pro 吗
但是因为它的那个计算它算不完全部所以它其实是追你的眼睛的焦然后只算你眼睛看的部分这个就是我所谓的简约这样我有理解错误吗就是在刚才这些 Sloggate 啊 Tree Transformer 其中一些些的概念我觉得比较像是我们现在在做很多模型的时候我们会发现
欸 並不是無腦的放進去他就自然而然會學會了那我們可能要對於這個模型有一些假設哪一些資訊是重要的比如說像那個 Tree 我們就覺得欸 在樹狀的這一個架構下面是很重要的而不是你隨便亂接都可以所以如果我們給他一點點的限制有可能可以讓他就在這個限制下面做得更好一點點但是像
另外一個比較新的這個 Let me speak really 的這一篇這一篇的概念就是剛好相反這個是我們發現在使用模型的時候比如說大家使用它如果我們要讓它做一些選擇題我們是不是會說好你現在可以做 A 可以做 B 可以做 C 然後你現在就是要 outputA B C 這樣那因為它前面就會說一堆算是廢話嘛它可能就會說像我想一想啊等等這樣然後最後才會說好答案是 A 然後 B C 嘛
所以你如果是完全自动化的在使用想要拿它最后的答案你其实是需要把它整个输出就是让一个后面的程式它可以直接抽到它的答案就是 A 或 B 或 C 但是因为它答案等于什么可能会出现在这里面的任意一个位置嘛
所以你無法確認說它一定會出現在最後或者是它到底會說什麼話然後才會說答案是什麼所以現在大家的使用情境都是強迫它你一定要照著一個 format 就是 answer 冒號然後最後就答案就是它一定要符合這個格式只是選擇是一個比較簡單的就它還是可以做得很好但是有一些任務是格式可能比較複雜就它要產生一個
比如說一個程式碼好了然後他希望這個程式碼符合某一些規定然後希望它符合某些格式那如果我們讓它符合格式的過程中叫它做這件事情我們會發現當我們加上這個格式限制會比沒有加格式限制它的
他的表现变得更差就变成是他在尝试解这个问题的时候你又给他一个额外的限制他同时要满足这两个任务他的最后的能力就下降了所以虽然大家现在开始测试的时候都用这个有限制的状况去测但其实你应该要让他更随意的讲话随意的讲完之后可能再用另外一个模型去找说他这边讲的答案到底是什么然后再把它抓出来这样效果会比较好
了解所以反而是我们在过程中发现这样子做其实是因为这个格式不符造成一些问题我们才去检查说会不会它其实本身就是一个很难 follow 格式的一个模型因为我们其实平常并没有训练它要好好 follow 格式虽然有努力的训练它这件事情但它人生就是一个接龙的模型而已所以你就是要让它很随意的
讲话不要让他有任何限制他可能才能真的能够激发他原本的知识可以做得更好比如说刚刚那个选择题就跟他讲说这个答案在哪里把它找出来对那为什么这样子他就可以做到呢因为第二个模型他的任务非常简单他只要挑选答案而已 OK
他不用解這個題目嘛他只需要把答案變成是我規定的格式所以就把原本的任務拆成兩塊原本任務是要回答問題同時要答案要滿足格式那原本我們是期望一個模型一次就要到位可是這件事情可能就有點難
所以我们就让他第一个模型他就先回答问题就好了第二个模型再把他的答案转成是需要的格式就把这个任务拆解成两个明确的任务这样子两个任务都相较在比较简单他就可以做得比较好
那如果接连着我给她的是一个问题串你先做某件事情再做某件事情最后再做某件可是第二件事情一定得得到第一件事情的结论第三件事情一定得得到第二件事情的结论她才能做那这样子她有办法回答的好吗就像是刚刚用两个模型两个还是她就做不好了看状况在任务很复杂的时候猜成两个还是比较好因为你的对话有可能到太长
所以他前面比如说你是要他写一个程式嘛然后他已经写了一堆然后他已经忘记你前面还要做第二件事第三件事所以他就有可能就做得不太好但是如果这个任务蛮简单的就短短的那他可能你三个任务全部写在里面他就可以做
所以这就跟你在用的时候也是一样你一个任务你直接全部一开始就告诉他说你就做 A B C 然后他全部做到有一些情况是可以的但是有一些情况其实不行你就要说你先做 A 然后做完了之后然后就说哦很好很好那现在你要做 B 咯然后他最新看到就是 B 这个任务嘛就等于是跟他讲 B 任务的这个字很接近现在要回答所以他就一定可以看到但是如果你全部一起一开始讲对他来讲就太远
他有一天有办法克服这个问题吗我觉得没有办法到完完全全的克服因为你想他其实就跟人类很像你越以前的资讯一定是越记不得的嘛对不对所以你越前面出现的越容易忘记的啊就算你脑容量非常非常大你可以记得
但比起来一定是最接近现在我跟你讲说你现在给我做 B 跟我之前曾经讲过叫做 B 你一定是这个比较记得嘛虽然模型现在是可以吃到很长没错我刚会问那个问题最主要就是想要解决我的扣打的问题
我每次他跟我講說你剩 25 條訊息可以問了我就會問很長很長的問題來節省我的那個使用次數但是剛剛聽起來反而會比較爛對啊反而比較爛我不能這樣子省錢然後我就說啊真是太討厭了解了解我看到另外一個研究在講台灣本土 AI
然后这个我觉得很有趣就是说如果是国外的然后你问他 22K 或是载具他讲的答案都跟台湾不一样所以台湾本土的 AI 目前发展现况是怎么样我有没有可能以后需要下载一个 ChatGPT 以外的软体就像 DeepSeek 可能讲话很像中国人或是 Grok 讲话很像 Twitter 出来的人
看你使用的情境需不需要让他考虑到对于这种本土文化的理解那如果是需要的话其实的确他就最好这个模型就是他更熟悉你想要他学的这些文化嘛
所以我们其实一开始会做这一个 project 是因为那个时候 CHP 刚出来然后你光是要他回答是繁体这件事情都非常的困难而且是不管你怎么叫他你要用繁体回答我他都会讲讲就又变成简体了或者是他
表面上看起来是繁体但是其实那些词汇啊就是很不像我们会使用的词汇对比如说视频之类的那代表说其实他学进去的那些资料里面真的是从台湾出来的资料其实就很少嘛所以我们才想说如果我们可以把一些开源的模型然后再继续训练在真的是台湾产的这些资料上面它应该就比较像是
欸 一個國外剛出生的人他學了一些不同的語言的能力之後他來台灣住了很多年那他來台灣住的過程中他就更了解台灣的文化更了解台灣的詞彙的使用然後這個 project 做了之後反正就也有很多困難的地方比如說台灣的資料本身就比較少
你要把这些资料拿进去做语言模型的训练其实现在在法规上面还没有完全的开放可能还会有一些著作权法的问题所以当你资料不够处处受限其实就会蛮难做的但我们至少就是从研究的就学术的方向就是做了一个这样子的 project 然后也有一些还不错的成果
當時就是希望這個 project 能夠讓大家知道說如果你的使用情境是需要了解本土的一些內容其實應該要做一個客製化的模型才對最適合的 demo case 其實是法律
因为你看在其他比如说你用 TrashPT 或是你用 DeepSea 或其他的模型你不可能期待他会多了解台湾的法律对吧因为美国的法律就是又不一样它里面训练资料啊知识就完全不同那你当然是必须要训练一个就是真的是理解我们台湾的法律啊这些规范
所以我们当时也用了台湾的法律台湾的判决书经过这些训练那他在这些法律上面的判断啊或建议或分析其实都会比其他的这些模型来得更合适所以他其实是有这样的需求的但并不是所有的任务都需要就像你叫他解个数学反正你不管用英文解或用中文解反正数学就是数学嘛
就不需要有這個文化上面不同的差異但是如果你的問題比如說你的笑話可能是要理解這個語言的文化情境那可能就會需要他能夠多了解這個國家或多了解這個語言的使用第一個想法是不是舉世皆然的職業就可以先稍微鬆一口氣因為目前他們訓練出一個完美的模型來全世界通用就暫時不會被取代其實是不可能的因為你想
怎么可能会有一个模型它同时是可以处理不同国家的价值观因为每个国家的价值观它就是不一样啊真的不行吗所以光是知道不同国家有着不同的价值观还不行
我的意思是说他如果知道伊斯兰教的国家不能吃猪肉然后知道台湾人很喜欢吃猪肉他知道这件事情他不就可以在你给他的情境下面选择比较适合的回应其实现在 Chad GPT 就应该是做类似这样子的事情但是因为你的资料一定有多有少嘛
对不对所以你比较多的资料的那一边一定多多少少他会 dominate 那个情境比如说英文的资料就是比较多然后中文资料就是比较少所以你一个问题进去西方国家跟东方国家在这个同样问题下面可能会有不同喜欢的回应方式如果你没有告诉他说我现在是啊
喜欢哪一个他可能就直接用资料里面比较常出现那个来回应你所以这时候大家才会发现说同样一个问题之前大家用英文来问他会比用中文问他效果来得好因为他的英文能力是比较强的是对所以你很难强制他自然而然就达成这个效果他有可能知道但是如果你要他
因為他知道然後而產生在這個情境下面比較好的結果就變成是你一定要告訴他說現在我是在台灣我希望你產生的這個回覆是比較符合台灣人的喜好你就要說一大堆但這就很冗嘛對不對你會希望他原聲就會自然而然講出你可能比較喜歡這樣子的回應那這個其實就是需要模型他整個更像是在這邊生長
对,他的 preference 是比较 align 在台湾人的这些 preference 我在想未来啊我们到底是应该做各个不同的模型去符合刚才讲的这种可能每个国家都有不同的偏好还是其实每个人小时候都是跟着一个自己的 AI 一起长大然后他是吃同样的资料库同样的演算法可是因为从小到大他一直跟你讲话所以他知道你的个性
他知道要回答什麼我們就所有的對話都是在同一個對話串我們不開心的視窗這兩種做法我怎麼感覺第二種比較簡單
就不用一直训练新的模型是比较简单但其实不太实际因为你看每一个人他会不一样就是因为他经历了不同的事情他的生活经验都不一样嘛所以他们才会发展成不同的人这件事情其实跟你全部训练在同一个模型这件事情本身就是不同的概念
对不对就一定是前面可能一开始经过同样的老师跟他交同样的东西可是因为他的生活经验他们互动的朋友不一样所以他们渐渐就发展成有点不一样的个性不一样的人格他们对于同一个问题会有不一样的回答这个就比较接近发展
很多小的模型然后适合不同的情境就比较接近我们现在人类的生活方式吧对所以像刚刚说到是文化价值观这个可能同一个国家会比较接近但是你想就算同一个国家里面有很多人价值观不一样对所以你也不可能说他一定是可以 optimize 每一个人的需求都是最佳的对所以比较像是每一个公司或是某一些团体他一定有
他自己觉得比较好的回复方式那他就需要去把这个模型调整到比较符合他这个公司的发展策略那另外公司可能是一个比较积极的公司一个公司比较保守的公司那他们的回应方式就会完全不一样啊就算是在同一个国家里面都有可能有这种情况更别说是有那么多的不同的国家那么多不同的文化那么多不同的产业
所以我覺得不太可能同一個就做到所有的事情所以將來我們會看到就是更多更多更多的模型然後越來越細部去劃分我是什麼使用情境然後我要自己去選擇我想要用哪一個來對所以我相信會有比如說醫療的原模型他就是學了非常非常多醫療的知識那他就是用在醫療的情境然後法律的可能就是用在法律的情境我們現在用的這種就是
一般啦就是沒有一個明確專業的領域就 general knowledge 我們就全部都用現在的這個模型那如果是特定領域的知識的話可能就是需要讓他多去學那些領域的可是這樣模型不是開發不完嗎因為假如說他法律學完可是又修法一直修法一直修法
没有可是你看这就跟人类一样啊我们大学之前都是学差不多的东西嘛对不对但大学之后我们是不是就分科系了大家学不一样的东西比如说我一直学工程类的东西那我的社会啊历史啊什么这些就变得很烂嗯
正常嘛因為我的腦容量必須要用在我現在做的這個工作的這一塊所以我另外一些能力就會下降那如果你是學人文這邊學比較多文學這邊學比較多那你其實可能工程啊其他的可能能力就會稍微比較差那每一個人就會有一個比較強的地方那你就是去做強的這個任務啊你的工作其實也就是江律師他就是處理法律
所以其他東西處理不好也沒差也不會有人問他醫療的知識了解對所以他就是用在特定的這個情境就好了所以本來就會就像人類一樣一直進步了解還有那個細分對對對對對轉業了解這是我認為的發展啦嗯哼嗯哼但當然是比較麻煩對啊因為我一直嚮往就是 AI 把所有人的工作都取代掉的那一天可是目前看起來就是所以你希望他可以取代大家的工作嗎對啊
我非常想要啊那大家就会担心说那这样子人到底要干嘛我一直不懂大家为什么不知道要干嘛我每天都好多很有乐不是啊这个世界就你可以赏鸟啊你可以爬山啊对就是麻烦的事情就叫他来做嘛对啊对啊对啊对但是他可能就会想说那就要怎么赚钱啊怎么工作啊薪水啊什么之类的这些担心我之前就是一直觉得
就不用再工作啦工作事情交给机器然后我们变成猫跟狗被机器养然后我们每天负责快乐就好只要傍晚去公园交交朋友哈哈哈哈追来追去其实 Ultimate Go 应该类似这样子就是
人類不想做的事情就讓機器來做對 人類想做的事情人類還是可以做就有可能你在寫小說的過程中你就會在其中啊所以你可能不想要它完全取代掉嘛因為這可能是你的成就感來源對 所以它可以幫你做一些
比如说里面可能要 survey 一些东西很麻烦这些事情可以让机器来做所以有点像是人跟机器一起协作可以让人类还是保有你觉得有乐趣的那个部分然后麻烦的部分交给机器来做我想到一个西洋起发生的现象然后我觉得跟我的下一题有一点关联
就是西洋棋他们那时候一开始是低 blue 嘛然后下赢那时候的世界棋王大家说天哪怎么办机器人比人类聪明居然会下棋后来科技的进展他已经可以算到那种深度就是什么 40 步以后人类基本上已经下不赢就会直接问这些职业棋是一个问题说那人类干嘛还要下棋电脑都算完了他算完只是时间的问题
就是迟早有一天因为它是没有几率的游戏嘛所以只要任何一个棋盘然后什么棋子放什么位置它就会算出哪一个几率就比较高对对对应该是一个可以解完的问题
那人类要做什么呢所以后来反而发现在一些时间控制比较小的就假如说双方思考时间只有一分钟那个一定会出错嘛可是人类可以在那个极限情况之下哇他居然 1.8 秒他就找到了电脑说的最佳解这是一种不完美中的美的机制了对所以我感觉以后的
很多行业都会去追求那个不完美还是能做到某一个但我的下一个问题我最近一直在训练我的极限写笑话然后我就发现说写笑话往往都需要使用某一种不完美的思考方式稍微回到刚才讲的本土语言模型因为听众没有看过那篇 paper 他们不太知道
總之呢就是如果你問 ChadGBT 22K 是什麼意思他會說是跟黃金的純度有關如果說載具的話他會說是某一種用來承載的交通工具對對對然後可是台灣就會知道是刷發票反正就是載具啦大家知道載具是什麼意思對對對但是某些情況下我們會說 ChadGBT 給的答案是錯的可是那個時候在我看來說這個不是錯這個是
绝佳的利用材料它是上等的食材因为你就可以用 22K 去做一个误导就是前一句话 set up 以为是在讲薪水但后来发现是黄金这种双贯但我不知道这算不算是不完美就反而是大家所谓错的东西我们会想要留着包含很多那种误导类型的笑话就原本你以为在讲这件事情然后后来发现啊原来他在讲另外一件事情
其實都在尋找那個機率次高的東西這是有辦法做的話就是去訓練機器那你只能去找那些機率次高不要用最高的可以啊喔 可以對 而且其實並不是說直接讓他訓練找次高而是你訓練完了之後因為他現在在生成的時候
他本来就大家想象中最简单的做法就是他每次在生成的时候就选下一个会出现几率最高的那一个但实际上他在生成的时候不是这么简单因为如果你每次都选几率最高的那就是一样的答案对那你为什么按重新 generate 他还会生出不一样的答案不知道不可能嘛其实他的做法是比如说他一开始生第一个字有很多很多可能性对不对然后他就把比如说前十高的拿出来然后你就在这十个里面 random 的选一个
可能是根據這個機率分佈選一個所以機率最高的那個還是有比較大的機率會被產生出來所以你按重新 generate 因為它就會重新在裡面 random sample 一次所以它就有可能 sample 到另外一個字所以第一個字如果不一樣的話是不是之後就會接觸不一樣的結果所以你每一次按你才會讓它可以有很多次比較多元的生成的結果那這個概念其實完全
你就可以把它用在你剛剛想要的找次高的這個上面因為模型訓練完之後你把一個東西放進去你就說載具代表什麼意思然後你就是可以讓它深層很多句然後前面幾個機率比較高的或是機率沒有最高但是次高的這些裡面很有可能就是接下去也合理但是並不是那麼沒有 optimize 現在它的這個情境所以你就可以把很多這種 case 就會找到
所以现在的模型本来就具备这样的能力那我再问下一个能力因为笑话结构里面可能讲故事 A 跟故事 B 所以它的权重会不一样在 setup 里面重要的事情在 punchline 的时候一点都不重要然后在 setup 不重要的事情可是它需要存在但是它不重要甚至是有一点要让听众忽略但是 punchline 一出来才发现原来它是重点这种原本
原本不重要的东西到了下一句话变得很重要这个也有办法训练他做吗应该是有可能的你就是感觉是要把这一个概念交给他有点像是你如果有这些资料然后你去解释说这边双关的东西是什么然后哪些东西你希望他这边是比较重要的哪些是比较不重要的他
其實應該可以有能力做到類似的效果但當然我覺得裡面因為可能還牽扯到比如說怎麼去包裝那個故事啊或是一些幽默感之類的那他可能不一定能夠做得那麼完美但概念上他應該還是有辦法學習的
那这个是一般就我们在使用的那种广泛用途没有特别专精就可以做到还是就是没有必要去开发一个新的演算法是专门去找这种很奇怪的不确定因为就是你要先试试看现在的这个做不做得到如果你它现在完全做不到那其实就可能需要开发一个模型特别针对你这个情境去训练嗯
但如果现在在你的调教之下他好像做的有点样子那说不定其实当你教他教的好一点说不定他就可以做了是有一个等级上面的差异的我觉得现在他可以做到的样子是他给我一个答案我会说
啊这个我能用我知道你想做什么但你没有做好但没关系我已经可以带着继续跑了对对对大概就这样但没关系就还不完美了对对还不完美最后的那一段其实是比较困难的就是从他有点样子到你可以做到非常的好
這邊其實是比較難但如果他已經有點樣子代表他有 get 到那個概念嘛對所以代表他是知道你要他做什麼了解所以這裡的確有可能你給他多一點的資料然後去調他他是可以更會做你這個任務的嗯嗯嗯
那我最后想要问一个问题就是这种实验室里面的结果到实际上流到我们这些消费者使用的时候过程大概要隔多久或是它是多紧密多快速的会发生我觉得要看它的这个问题本身跟最后的这个应用的相关性嗯哼
舉例來說其實現在有非常多產學合作可能都是把一個現在產品上面本身就遇到的問題然後直接拿過來學校說欸他們也遇到這個問題你們有沒有一些方法有機會是可以比如說 improve 這件事情
很常看到就是在这种机器学习的领域的话都是比如说推荐类的我们有很多广告的推荐啊等等里面的这个模型当他训练的越好他就可以推荐的越准确嘛所以这边有很多是可以 improve 所以这个时候实验室他如果设计了一个模型然后在这个资料上面训练出来效果更好他直接就把它放到他的产品上面所以马上就可以用
那也有一些任务其实是他觉得他未来想要开发一个产品是做某件事情的但不确定可不可行也不确定做不做得到那就请实验室去做一些前期的研究看看那如果做出来好像有一点点 prototype 有一点点机会可能会再把他拿过来看看要怎么把他 cook 成一个真实的产品
然後再放出去所以這個的話就會比較久有沒有那種因為剛剛聽起來都是由產那邊出發有沒有從學出發就是我們覺得這樣子做他的思考會更棒更像人性化然後做完有結果之後要到處去說你們要不要融入進你們的產品有這種情況嗎
这个的话其实也算是有就是我们做的那个台湾的语言模型这个其实就是一个我们自己觉得这件事情重要所以我们就做然后我们做完之后我们就开源出去所以我们也并没有任何人跟我们讲说我们有这个需求想要你可不可以做这个然后反正我们就做完然后我们就给大家用
后面其实就也有很多不同的台湾的厂商啊或什么的他们之后就把这些模型然后微调到他们的使用情境然后或者是放入他们的公司里面内部的 service 上面用在他们内部的一些知识啊或者是 QA 的这边使用对所以这个比较像是
我們就是自己覺得有什麼想做的就做之後就把這些研究公開出去讓大家可以受惠對 但這個的缺點就是大家拿過去用我們就沒有收入產學的話就有收入這樣喔~原來是這樣 產學的話就等於是產業界直接帶題目說來你不能再做那種哈哈哈哈
可是这是对于台湾重要的一件事情啦是是是了解我可以再问一个问题吗就假如说我现在训练的 AI 是因为跟我互动然后他变得很会写笑话可是仅止于那个对话串里面啊我如果要让其他人也可以用这个服务是要怎么把它搞上云端然后所有人都是对着同一个人讲话这边的话就
稍微要一点点工程的技术比较好做简而言之其实就是把你训练他的那一段对话变成一个训练资料然后 OpenAI 他的那个 TrackGPT 他是有提供你可以微调他的服务的对所以你微调他的服务就是把你现在训练他的这些资料调到他的脑子里所以他调完之后你就可以把调完了这个很会写笑话的这个然后给别人用了
哦所以很方便很简单要写一点点程式但不会很难它叫做 fine tuning 就是你要微调这个模型它有一个 function 是可以做这件事情但更简单一点的做法就是你把这整个 copy 下来就给那个人啊就是你把它贴上去可是我有试着这样做过啊然后他的学不起来
還是他沒有複製到整串還是怎樣就是有一種某一個學生他是真的被老師就手把手帶著然後自己很多練習他自己想過很多事情然後另外一個學生是看著他而已 他看了對所有的那個筆記本他沒有真的學會所以我不知道是發生什麼事但因為我們前幾個禮拜就一直在玩這個東西發現說我的筆其他人會寫那我就直接把我的整串丟給其他人然後說你就跟著學習結果他還是不會
那就不知道問題出在哪裡還是要分段位可以試試看但是最理想的其實就是我說的你這邊訓練的這些資料一併把它訓練到這個模型裡面因為它就像是每個過程你跟他講說喔這個輸出是好還是不好然後就按讚按到讚這樣他的那個模型就有調整到你的這個情境嗯哼
但照理來講覺得 複製應該不會差到太多吧欸對啊 所以可能要再實驗一下我不知道為什麼你那很長是不是很長 非常非常長把一些重點 結錄下來這樣喔 可是我覺得那會更差欸因為照理來講機制是相同的啊就是他看了這些前面的對話 然後他回
嗯这个时间点跟你贴前面的给他看照理来讲我是觉得应该是一样的才对哦好吧只能再试一试可能我贴的那个对象他们整串贴进去我在猜只有贴重点然后重点不够可能他只有贴成功的没有贴失败的或是怎么样你自己可以测啊你就开另外一个心事窗哦也是然后你把它贴过去看看会怎样哦
對 照理來講其實應該是一樣的 ok 至少不會差到太多啦因為它其實會客製化它會考慮你之前的這些對話然後去稍微模型會有一點點不一樣對 但是我是覺得如果是那一個裡面是最主要的精華貼上去應該不至於差到太多 ok 了解對你自己最近有什麼對於未來
觉得我们应该要怎么适应因为我真的觉得教别人的这个能力反而变得很重要如果我要训练我的小孩将来适应一个有 AI 的世界的话我也跟他讲说你要知道怎么教别人这个才是最重要的你自己都做不会甚至是没关系的因为你知道怎么教 AI 就好
不只是说教而是你要在这个领域上面做到不是只是 low level 而是你是可以像是这个领域的老师你可以变成是他的有点像是 manager 你可以指挥下面的员工去做 low level 的事情然后你就判断说他做的对还是不对
所以你可以教他怎样是对怎样是不对当然是更好嘛那我觉得这个能力比较接近 critical thinking 不管是哪一个任务其实都通用的批判性思维你能够判断哪边是正确哪边是错的然后中间到底为什么对为什么错这边的这些逻辑其实是非常重要的所以如果他原本的这个基础
没有具备的话他其实也很难具备这么 high level 的能力就像是比如说我要他写程式好了现在大家可能写程式的人都用 AI 来产生程式嘛但是因为他还是有可能会错嘛所以他还是要需要跟他讲说我这边应该是这样写不是那样写这边要改一改那大家就会担心说那现在写程式的人是不是就已经没有饭吃了
但是如果他是一个完全不会写程式的人其实他也没办法指导 AI 对写出好的程式所以他除了前面必须要具备基础能力以外他还要成长的足够快可以变成是老师的等级可以判断现在 AI 写的到底对还是不对所以需要的能力其实是更加 high level
在学习的领域就有一个叫做金字塔的理论嘛就是金字塔越底端是比较 low level 的有什么 remember 就是最低的嗯就只是把它记起来嗯然后越上层 understand 对就是 understand 啊然后应用啊然后 evaluateevaluate 就是比较偏向上面的 evaluate 跟分析啊跟创造最上面的这几个其实变得更加的重要哦
所以現在 AI 是從比如說 Google 的搜尋引擎它其實可能是可以幫你記得很多東西在最下面但是現在 AI 的能力上升了所以你就必須要一直在它上面一點對不然你就會被它取代超像那個淹水啦你要一直往上游可是神的發展其實就是這樣啦因為你看喔掃地機器人是我們常常拿來講的例子
就是在没有扫这些人之前那你不就是自己扫吗那有扫这些人之后你还是要打扫嘛诶 要吗就是有一些地方他扫不到
那少不到啊 -對對對 就是一些角落所以掃地這件事情它只是改變了但是你還是會需要去處理它沒有辦法做好的這一塊所以其實跟 AI 一樣就是人類一直要做現在 AI 做不到的那一塊但是如果你完全就把它外包給 AI 其實就會非常的危險你就會覺得 AI 做的一定是對的啦我就全部讓它做那這時候你就會被取代
因為你就沒有具備什麼他還做不到的能力對所以一定要曾經會過不好意思我想到其他問題就像是我們小時候小學你不能用計算機在那邊算啊是後來不知道什麼時候然後大家都要去買那個工程用計算機然後你可以算一些很沒有意義的什麼什麼 Science 8 之類的就是
但是我们将来的教育需不需要规定什么时候才可以开始使用 AI 的辅助因为就我所知现在的那个大学生全部都在用 AI 在写作业我觉得也是需要因为这个跟用计算机其实的确概念是很像的你越早让他用的时候他其实会有点失去那个能力
之前我也看到一個 Post 然後他就有去分享說他覺得比如說為什麼東方人的數學跟西方人其實數學就是東方人很強嘛對除了語言上面的差異以外還有一點就是可能美國那邊可能很早就可以用計算機所以他們其實並沒有讓小孩子自己去練習怎麼去運算這件事情
他的心算能力就变得很差那很多早餐店阿姨的心算能力都超强就是比那些国外的可能大学生都还强非常多就是因为我们从小其实是有在练习这件事情的那如果你太早就把它外包给机器来做的话你其实就失去了这个基本能力
當你真的稍微需要的時候其實就有可能你沒有辦法產生出來那如果你在寫程式其實也是一樣如果你一開始學習程式的時候你就直接用 AI 幫你寫那你怎麼會知道這種 AI 可能會發生的這些小錯誤你可以把它揪出來呢因為你沒有自己寫過你可能自己
不一定会注意到这种小问题其实是很 critical 的所以在基础的任务上面一开始我们还是会觉得你可以先自己会了之后进阶的时候你就可以用这个工具然后知道这些工具哪些地方是做得到哪些地方是做不到然后就跟他一起合作然后做得更好我刚刚原本想要问大学算是太早还是太晚但其实好像每个任务不同
對對對 好像答案是說只要是在學習的過程中你至少第一次都自己先學起來學會了再依靠 AI
AI 是嗎?就假如說研究所也沒有到每一個任務不一樣因為你想喔 比如說歷史事件好了比如說什麼事件是因為什麼衝突而引發的然後在哪一年那如果這個東西就讓小朋友可以開書那就不用考了嘛 對不對?喔 對對就是他也不會記得 他也不會學了嘛所以在這個 level 的時候其實他還是需要自己去把這些東西記下來 對
但是接著演進到更 high level 比如說他之後可能會在學習說喔 為什麼會導致這個衝突那可能會有些深論題那應該要怎麼做可能會有不同的影響然後就讓他去發揮這個時候其實就可以讓他開書因為他已經知道說
已经的这些事实资讯是什么但是我可能需要考虑更多更深入的一些分析那这些分析就算你开书其实也没有很直接给你答案的感觉对所以就可以用这些工具来去做更深入的这些探讨
但是一开始的这个如果你就直接让他用这个工具那他一开始这个能力其实就不会学到啦对所以不管哪个领域我觉得都是好的今天非常非常感谢陈教授愿意拨时间来上这个 podcast 谢谢大家希望今天不要太 technical 希望大家可以了解会吗
因為你算是非常的了解這個我不確定各個觀眾會不會覺得這個太深入沒關係 我不太在乎他們沒有啦 這個 Podcast 就是以我自己有什麼疑問對 自己很好奇有疑問想要知道的事情 以我為主他們跟不跟得上 他們自己去想辦法
了解了解了解沒關係大家要跟上啦現在這個 AI 世代非常重要跟不上看兩遍好的那今天非常感謝程瀟手謝謝大家我們今天這集播音錄到這邊 VS 中間沒有點下集再見掰掰