cover of episode 百亿美金问题:大模型创业PMF难寻,是Transformer的锅吗?

百亿美金问题:大模型创业PMF难寻,是Transformer的锅吗?

2023/12/27
logo of podcast 先见未明

先见未明

AI Deep Dive AI Chapters Transcript
People
罗璇
Topics
罗璇:我认为Transformer架构在实际落地应用中面临着成本高昂和效率瓶颈的问题,这严重制约了国内AI的发展。国内AI领域长期依赖美国开源的Transformer技术,缺乏自主创新,这是一个亟待解决的问题。因此,我所在的元始智能致力于开发一种名为RWKV的新型大模型架构,它具有更高的计算效率和更低的资源占用,能够在云端和端侧实现更高效的部署。我们的目标是构建一个开放开源的AI底座,推动RWKV架构的广泛应用,并重构基于Transformer的基础设施和应用。此外,我认为创业公司应该重视数据安全,避免过度依赖OpenAI等云服务商的API,而应构建自己的数据飞轮。总的来说,我认为Transformer架构已经接近瓶颈,而RWKV等新型架构将为AI领域带来新的突破。

Deep Dive

Chapters
RWKV是一种新型大模型架构,其计算效率比Transformer高10到100倍,在云端和终端部署均具有优势,成本更低,且不依赖GPU。RWKV已应用于音乐生成、小说续写等领域,并与高通、MTK等厂商合作。
  • RWKV计算效率比Transformer高10-100倍
  • RWKV云端和终端部署均有优势,成本更低,不依赖GPU
  • RWKV已应用于音乐生成、小说续写等领域,并与高通、MTK等厂商合作

Shownotes Transcript

真正在做落地的团队应该可以深刻的体会到用 Transformer 到底有多贵和有多大的效率瓶颈国内的 AI 其实就是被卡在了 Transformer 加高溢价的 GPU 上面国内为什么不去聊 Transformer 的问题为什么大家都在拿美国开源出来的东西直接用这其实就已经是一个问题了

创业公司你要保持自己的竞争力和优势的话不要把核心数据给 OpenAI 这种公司像 Jasper 就是一个很好的例子如果你自身有很多很优质的数据的时候把数据给到另外一家云厂商的 API 这其实是很危险的

既然其他公司不願意做這個事情我們願意去做開放的開源的底座我們會把所有的底層模型都會開源出來而且已經放到了 Ninux 的開源基金會裏面 Raku 是一個會帶來 10~100 倍的效率提升的大模型所有基於之前 Transformer 架構做的 infra 和應用都值得用 Raku 重新做一遍

先见必然未明大家好我是老王今天呢我们迎来了一位返场嘉宾啊大概六个月之前我们还叫散装智能的时候我跟这位老师呢在北京的全季酒店的大堂临时凑了一期播客当时呢他提出了一个非常有标志性的一句话叫做聊非共识是吧在这个寻找非共识的路上就是苦苦的探索

所以今天呢我们也就邀请他返场来看看他这半年的过程中啊

有什么样的新的进展和有什么新的体会那其实他就是 Rakuf 这个团队的联合的创始人罗璇老师来罗老师跟大家打个招呼呗大家好我是罗璇我现在是在 Rakuf 的商业公司叫原始智能这家公司的 co-founder 我现在是在负责产品还有生态这一块我们这个项目其实做了三年了然后是成立商业公司是最近半年多的事情然后也是刚好在成立公司之前有跟老王一起聊过天对

要不这样因为我觉得估计还是有很多听众是没听过我们那个头一期所以我觉得可以请罗老师呢这样首先咱们先还是简单的讲一讲 Rakuf 它是什么然后再讲讲你过去的这六个月因为六个月前我很记得你当时说的是最近跟很多人聊了一些非共识觉得有些沮丧有些愤怒然后也有些这个干净满满

那六个月之后的今天你们六个月之中首先发生了什么事情然后你现在对这一切的体会是什么呀好吧我先介绍一下 Roku 吧 Roku 是一个新的大模型架构它不同于 Transformer 它是一个更高维的一个架构它的优势在哪里呢就是它的计算效率非常的高 Transformer 的速度会越来越慢它的内存和显存占用越来越多而 Roku 呢

Raku 的速度是很快而且是很定的内存和显存的占用也是很定的很低这是跟小斯风比最大的一个差异另外一方面因为很底层的就计算效率的一个优势我们无论是在云端还是在终端部署模型都非常有优势云端部署模型整个的成本会非常的低也不依赖于

GPU CPU 我们在云端做推理和训练其实都可以 CPU GPU 都可以另外一方面在端测跑模型也变成了可能当时我们也最早在三四月份就提出来端测是未来现在其实业界也在纷纷的在提这一点我们其实跟高通 MTK 英特尔等端测芯片厂商也在深度的合作我们自己也做了很多端测的模型的应用包括音乐生成小说续写等等

总之就是 Raku 是一个会带来 10 到 100 倍的效率提升的一个大模型所有基于之前 Transformer 架构做的 infra 和应用都值得用 Raku 重新做一遍可能还是会有一些听众也不太清楚说为什么

非 Transformer 架构这件事情这么的见走偏锋其实并不是见走偏锋实际上是 Transformer 是一个本身大家虽然认为它效果很好但是效率很低这个事情是业界共识所有业界都在寻找一个新的架构来

提升效率降低技术复杂度并不是说我们是遍走千峰而是说其实行业的主流都在探索这个方向包括美国的几个高校吧斯坦福 MIT CMU 其实都有专门的团队在研究这个方向微软亚研院包括 Google Brain

Meta 其实也在看这些方向像 OpenAI 特斯拉他们也在今年初的时候也提出来了说他们要寻找 Transformer 之外的新的架构并不是说这个方向是一个非准确方向其实这个方向大家都在探索只不过说是 Raku 是最早跑出来的而且也是被大家认可的一个落地的一个模型的架构但是可能如果是大家按照比较常理或者常识去评判的话就会觉得说

虽然都有在探索新的可是对于老的这个 Transformer 的这个架构上面还是有非常多的大中小巨头甚至都不是巨头的头是吧还在不停的往这个里面投入所以这个会不会也是一个你们会常面对到的质疑就是你会不会太反常其实 Transformer 可能是一个

如果真正在这个领域真正在做落地的团队应该可以深刻的体会到用 Transformer 到底有多贵和有多大的效率瓶颈其实这才是最关键的问题虽然我们看到有很多的团队在海外的团队国内团队都在用 Transformer 去做业务或者产品真正能够赚到钱的有多少呢这是最关键的问题没有商业闭环

其实这块其实很快就会过去了这个热潮就很快过去现在其实有很多的模型厂商他把模型念到 100 币以上就千亿的模型但实际上是用不起这个千亿模型的他的推理成本会非常的高另外一个就是现在在提供一些云端 API 的公司真正大规模在使用并赚钱的几乎没有在国内其实即使是 OpenAI 其实也是在亏钱的这是所有的一切都是因为这个计算效率带来的

但大家会不会期待说比如将来算力的钱会更便宜或者是说当我规模效应更大了之后就还是会有那种互联网时代的那种幻想吗这个幻想的前提是因为当年芯片是有某种定律的就是未来 18 个月确定性的会把成本下降到现有的一半

而现在的芯片其实已经没有摩尔定律了现在的 GPU 反倒是在快速的涨价所以你无法期待未来一到两年英伟达的 GPU 会降价除非你能够找到新的算力找到非 GPU 的

现在其实业界正在探索的非冯仑一曼架构的芯片这可能会带来新的一轮的芯片的摩尔定律我记得咱俩上次聊的时候你们的论文是还没有是刚刚出那会儿对应该是 5 月份我们 5 月 23 号发的论文最近也上了 EMN2P 的鼎会

而且当时还有一个问题是那会你们的模型规模还比较小好像是 1B 还是 2B 来着吧现在的话当时其实已经有 7B 14B 的模型我们现在提供的也是 7B 的模型为多因为其实 7B 在一些端测的场景是非常适用了在一些垂直模型的训练 7B 已经足够了只是说我们要练更大的模型几十 B 和千亿的模型未来是给云端在云端部署去提供服务的

你刚才有提到是说将来 Racroof 这个架构的模型的话是有望比什么 Transformer 架构的效率提升百倍这种这样的一个口号那你们实际的目前来说的话同等规模的一个效果的比对是什么样

先说效率吧,因为它的计算复杂度就是 T 和 T 的平方的区别,所以它的差异肯定是 T 倍,T 的话其实就是一个根据你上下文的窗口的大小不同,它的提升的效率的比例是不一样的。

另外一方面我现在所有的大模型的 infra 包括芯片都是没有针对这个算法做过优化的所以未来 infra 和芯片的优化完以后肯定是比现在是提升至少一到两个量级的这是我们相对比较乐观的一个预估

对那你们算过同等规模的比如说你们比 Transformer 能省多少算力你这个训练的时候和推理的过程举一个简单的例子就是我们在做了极致的优化以后我们需要的算力

实际上比如说一个消费机的卡就可以跑我们 7B 的模型比如 3060 的卡 8G 的显存就可以跑算力这一层面另外一方面是存储就所谓的内存或显存我们的内存显存同样的参数同样的优化做完量化以后我们的内存显存占用只有它的一半只有 Testform 的一半好

反正我听罗老师的意思就是具体能省多少钱直接联系你聊是吧我们现在是各种各样的芯片都有在做很好的适配我们现在大规模在使用我们的模型部署有很多是用了上百张 4090 的卡在做推理对

他们在做 agent 你们前阵子跟高通的合作是个什么情况我看你们还上了他们夏威夷的高通大会是我们是作为高通的端车模型合作方因为我们的计算相比高能耗占用低所以是特别适合在端车跑模型的

所以我们在第一是作为它的端层模型合作方第二我们在现场提供了一个在端层生成音乐的一个 APP 去在做现场演示他们也是非常的主动的在积极的跟我们一起去做市场的推广他们也希望我们作为一个相比 Transformer 更适合在端层跑的一个模型他们也希望能够有更大的声量然后有更多的人更多的厂商来用这样的模型

看到你们的 logo 和一众其他的陈斯风尔加购的大厂的 logo 放在一起的时候当时还真的是有一种小团队真的是在各种挤压之中走出了自己的一条小小的路的这个感觉还是挺替你们开心的那个时候我们其实本质上是一个大家认为我们可能是一个小团队实际上海外的已经非常认可我们了

我们在海外其实积累了大量的开发者代码贡献者他们在帮我们做 infra 做应用海外有接近 1 万的开发者很多大厂也是跟我们是有非常深度的合作像刚刚提到的 StateBit AI 高通 MTK 英特尔

英伟达,Cogginface,AWS 等等这跟我们都有非常深入的合作其实像芯片厂商应该是很积极地在找咱们这样子的团队积极在接触对他们来说也是他们需要体现的而且我们这个方向已经被很多业界的前沿的科学院关注而且正在跟进我们这个方向

就刚刚提到像三所所谓的美国的 AI 的高校对吧 CMU 市场服务 MIT 包括微软具体怎么关注你说这个方向是吧他们这个方向都在出相关的论文然后他们也在借鉴我们的一些思想在做一些跟我们方向类似的模型吧

包括怎么说呢就是这个方向不单不单是我们就是说以前以前说嘛就是说你一个中国的小公小团队你做的方向是不是大家认可的结果你会看到其实全球顶尖的研究院和顶尖的大厂都在研究这个方向就可以证明这个方向的靠谱程度对

对因为那个 CMU 和普林斯顿推的那个叫 Mamba 的那个 Mamba 的那个作者其实两个一个是斯坦福的一个助理教授还有一个是 Flash Attention 的那个作者他们其实之前做的那个模型叫 S4 现在新的其实应该叫 S6 但是他们现在改了个名字叫 Mamba

对他们那个 Mamba 的这个模型其实就跟我们现在第六代的 Raku 的模型是类似的都是基于数据的一个衰减的一个思想但只不过说他现在还在一个论文的阶段我们认为要真正的把他的训练

公开了以后我们再看它的实际的效果因为之前也有类似的团队它的论文里面的效果很好但实际上真实念出来的话并没有它说的那么好另外一方面他们的论文里面有一点是有问题的点就是他们把 Raku 去做对比是拿着 Raku 的老的版本的而不是拿 Raku 最新的版本去做对比所以你会看到我们跟它有差异实际上我们的 V6 的版本已经有模型念出来了

是不是大家论文里都流行这么比我们其实不关心论文我们其实关心的更多的是你模型拿出来大家直接用我们三月份先把模型开放出来了然后五月份才发的论文而且论文也是开源社区帮我们写的其实我们觉得作为一个工程师或者是写代码的人最终还是要看代码对

我还想起一个事你之前分享了一个说这个 RockSoup 加入了这个 Linux 的开源基金会这个具体是个什么事情是这样的在整个开源的领域其实大家看到的这些做大模型开源模型的公司基本上都是商业公司拿出它的其中一个模型或几个模型出来开源这种开源我们认为是有一些可能有一些问题或者有一些风险的

两方面第一个是很多公司拿出来的模型不是他最好的模型第二个就是因为他的开源的实体是一个商业公司将来他是否包括他资产权各方面会不会去有影响对利用开源的这些人有影响其实是很难讲的比如说 Transformer 的专利其实就在谷歌这家商业公司上面

手上对其实这是对国内这些用 Transformer 架构的模型公司或者是应用公司的一个很大的风险而我们其实的做法是完全不一样的我们会把所有的底层模型都会

开源出来而且已经放到了 Linux 的一个开源基金会里面叫 LFN and Data 是作为 Linux Foundation 的孵化的唯一一个大模型项目所以我们的所有的底膜都会开源

都会放在 Nurex 下面去开源而且是全球开源 Apache 2.0 的开源和商用协议所有的底膜的知识产权都是会放在这家非营业性机构而不是放在一家商业机构这样的话能够最大的打消大家对开源这个事情最底层的风险的疑虑所以

我们自身的商业也是基于我们开源出来的底模再去做商业而不会像其他的某些公司说我开源一个 6B 的然后可能自己更大的模型是商业的你们觉得对你们来说这个捐赠比如说像当然基金会这边也会给你们提供很多其他的资源是吧推广啊等等

所以这个你们觉得是一个理念上的选择更多还是说其实这个里边也有一部分的就比较现实的成分设物你需要快一点让这个 recruit 形成一个更加这个主流更加占主导的这样一个

我其实是觉得整个 AI 世界需要有一个类似于 Linux 的底座过去互联网发展这么快其实 Linux 的这个底座发挥了非常关键的作用无论是像 Windows 像安卓这种商业的操作系统还是云端服务器的操作系统其实都是基于开源的 Linux 的

如果没有 Nisk 开源的话其实单独的一个商业团队是很难做出这么大生态的既然其他公司不愿意做这个事情我们愿意去做这个开放的开源的底座另外一方面我们也在积极的去推这个开源生态上的商业化只有这个开源生态上有商业公司起来才能够有助于这个生态的健康发展单纯只是一个开源生态上面没有商业化的话

大家也没有办法快速的能够找到价值对吧无论是用户价值还是商业价值所以我们自身也是在考虑像 Linux 它对应也有 Red Hat 这种商业公司所以我们自身也会也成立了商业公司去做开源模型的一些微调量化等等包括 2C2B 的一些商业落地所以开源和商业是不矛盾的但是它的底层应该是一个开放开源的我们看一些

这个世俗意义上大家比较好理解的成功的开源模型比如像拉玛那你怎么定义它成功就是有一些其他的厂商会计约拉玛来训自己的模型那 Recruits 现在有没有一些我们大家能熟知的或者也比较成规模的这样的一些其他的厂商

在用你们的这个架构做同样的事情有啊现在其实国内很多大厂在用我们的架构在训练模型这是第一第二的话呢是其实有很多的包括 2B 的公司他用了我们的模型但是并没有对外说后来我们组织一些线下会的时候他们会主动说他们在用我们的模型然后包括有一些大的国样企吧其实他们内部也在用我们的模型

现在大厂公开在用的阿里是在用我们的模型他们达摩院那边最近在用我们的架构做了一个语音识别的模型但我觉得有一个挺有意思的事情就是说国内就是甚至连 transformer 架构行不行好不好就这种声音你都很少会

至少在媒体层面你很少看见对其实这是一个很有意思的话题就是因为大部分可以这么说国内大部分的模型都是具有 Transformer 的可能除了 Raku 以外当然了有些研究机构也在做一些类似于 Raku 的架构的模型但声量都比较小了但是我觉得核心的几个原因第一个原因是这些商业公司都在用 Transformer 对吧

自然他也不会说乔斯文不好第二个就是作为软库的话其实我们过去在四五月份之前主要的声量还是在海外其实海外我们的声量是足够大然后也有大量的开发者在用我们的模型包括用来创业的也有不少做 agent 的最近也有三四个团队用我们的模型在做 agent 的创业

我觉得国内没有做的足够多声量的另外一个原因就是因为我觉得主流媒体可能关注的还是应用层面的东西更多一点他们关心的是 agent 关心 copilot 关心的是哪个真正的应用是怎么做的没有那么关心就是底层的一些技术和地层的优化但是也有很奇怪的一点就是

美国的解决机构出来个 Mamba 以后国内的媒体反倒报道的成多因为 CMU 因为弗林斯顿对所以这也是一个很有意思的话题对那你们接下来的这个工作目前的计划是什么样我们现在两方面吧第一个是算法架构会继续往下演进我们现在看到了 V5 的架构呢有

有一些跟进者比如说像 RedNet,V6 的架构其实也有一些在做我们同类的架构的一些团队像 Mamba 还有一些团队我们其实已经规划到第十几代的模型了只是说我们看什么时候放出来产品和商业化我们也是在做的包括尤其是端侧模型这块是我们小比 Transformer

大家的感知会更强烈的因为端测的算力和存储还有电量各方面都是非常有限的

一个效率更高的模型它才给用户的感知会更强你自己怎么看这个端侧大模型离我们实际就是真实用户的应用它大概还会有多远这种虽然这个问题很宽泛但是我觉得是说我们已经看到过很多是所谓 transformer 架构的一些对吧厂商在聊这些事情然后包括手机厂商也在聊这些事情那其实你刚才是给了很多

站在 RockFoof 这边或者说另外一种理念另外一个方式的这样一个观点所以我想听听看比如说你怎么看这件事情动作模型肯定是未来只是说现在 AI 大家看到了 AI 的价值而现在像 OpenAI 这种云端的调 API 的方式去使用

AI 的能力的话是存在很多问题的第一个就是时效性比如说你跟一个个人助手聊天你如果他的响应速度比较慢的话其实这个体验很差的第二个是我买一个手机本身就已经为算力付过钱了比如说买个 iPhone 对吧花个几千块钱

它本质上是为它的算力付钱电脑手机其实都是算力平台而现在感觉我端上算力不能用于 AI 了现在必须要去调云端 API 去用云服务器的算力这个是一个非常大的问题而且云端的现在算力还挺贵所以单个 token 的成本其实很贵的

所以如果你在端册去调 API 去使用 AI 的话你不但是要用一个花了钱的手机或电脑还需要每个月在卫云当中上去付费这个从经济上来说用户也很难接受对吧

真正现在我们接受每个月为 Mid-June 或者为 TierGPT 付费的人还是相对少数第三个是有很多的场景是不太适合放在云端的尤其是涉及到个人或企业的一些数据安全或私密的一些数据嗯

比如之前一个很典型的例子就是说三星包括甚至微软自己都禁止员工在公司内使用 ChatGPT 所以未来端测模型在本地处理数据会变成一个很重要的事情你觉得就是目前的情况来看的话如果我们要在端测把这个东西用起来它对模型的计算速度和手机硬件的要求分别是什么哦

我是这么看这个事情首先第一个你用 Transformer 就自然意味着你在端上使用这个模型的成本会非常的高你就只能用可能比较相对比较小的模型或者是做非常影响效果的优化这其一其二是如果你的芯片还是传统的芯片的话那就也是意味着你的未来的算力的提升也会是有瓶颈的所以

我是认为从架构和算力两方面未来在端测都会有变化一个是架构可能会在端测更多的落地一些类似于 RAKU 这种新架构的模型

另外一个呢在端侧也可能会出现一些新的架构的芯片最后的话想要聊回一下就是创业这件事我还是觉得你们选的这样的一个创业的这个方向其实是挺有魄力的挺长期主义的我不知道你你

你自己怎么看这件事情因为你直接拿一个模型去专辑也是可以的人和人的区别本质上是能不能看清本质如果你会发现这个算法本质是有问题的时候其实你在上面做很多的上层的应用也好 Infer 也好其实都会是失败公办甚至是一个错误的路线的甚至都会变成一个沉没成本所以我认为过去

半年到一年国内很多在现在 Transformer 上面搭建的很多东西未来都会被重新推翻这是我们看到的国内 AI 的这个领域的问题和风险刚好

我们的合伙人彭博他就是在做新的架构我们看有没有机会能够解决这个问题能够带来一些新的生态除了 Transformer 以外新的生态能够突破现在的瓶颈其实国内的 AI 其实就是被卡在了 Transformer 加高溢价的 GPU 上面为什么大家的钱比如说做大幕型的公司为什么要融这么多钱

其实它的核心是因为它要花钱去买买英伟达的 A100 或者 H100 对吧很贵预价了很多倍为什么它一定要用 A100 H100 呢因为它一定要用 Transformer 架构因为现在大家都在用所以这是其实是一个双重的瓶颈对是双重的瓶颈

而我们认为这可能是我们创业的机会当然也是因为也是我们非常担心会变成另外一种限制住中国 AI 发展的瓶颈因为国内你刚刚说的国内为什么不去聊 Transformer 的问题为什么大家都在拿美国开源出来的东西直接用这其实就已经是一个问题了

你们自己有一些预期或者预估吗觉得这个路会需要走几年因为显然这是一条更长的路嘛

我们认为这个事情会很快发展很快我不觉得它会很长因为 Transformer 已经到瓶颈了 Transformer 是一个非常强的非常低的天花板了已经是为什么呢我们可以看到 2B 和 2C 现在都卡到了第一个 2C 我的 RY 用 Transformer 其实是很难算清楚的 2B 也是一样的 2B

我们很多的朋友吧他们其实也在尝试用 Transformer 模型去做一些事情但是发现其实算力是算不过来涨的既然算不过来涨就意味着你短期内又没有摩尔定律那你无法预估未来这个算力会降价那你未来肯定还是算不过来涨所以 ROI 是有问题的那么现在能够想得到的两条突破这个

而 ROI 的问题的就是找到新的场景就新的 PMF 一方面是可能找端测端测就意味着我可以用现有的端测的算力去做一些垂直场景或者一些对手机上不一定会要跑一个比如说大几十币或者上百币的一个模型可能跑一个 7 币 14 币的就够了

然后另外还有一个就是我整个云端也会换成新的架构这样的话 ROI 就像我们刚说的软户有可能做到 10 到 100 倍提升的话那实际上很多 ROI 就能算过来了 PMF 就成立了所以我反倒觉得这个市场很快会出现而不是要等很久你反而觉得从这个架构上找 PMF 是更容易的现在是 transform 是很难找到 PMF 的最后一个问题

就是六个月前还是回归到你那句最近跟大家聊了很多非共识感觉挺累的你现在还有这种感觉吗我觉得现在很多创业者已经逐渐的在用我们的模型了另外一方面大厂也在用我们的模型其实很多人可能明面上不说其实已经在用我们的模型了这就很说明问题了就说明 Transformer 确实是平静了

另外一个就是海外的刚刚说到海外的一些科研机构大厂也在跟进我们这个方向说明我们不是这个方向上唯一一个在做这个事情的人所以它逐渐会变成一个共识说实话其实在美国已经变成共识了有很多其实我们在美国有很多人在用非常多的卡在训练我们的模型

对确实我记得你当时是主要说了三个非公式第一个是 Transformer 架构是不是唯一选择第二个是是不是大模型就一定是在云上这两个其实都已经被被证实逐渐的变成了一个是 Transformer 肯定不是一个唯一的一个架构所以我现在把我的社群名字都改了

以前叫 AI Transformer 现在改成 AGI-X 第二个就是端层模型现在你看到现在市面上越来越多的人在提端层模型其实第三个其实我一直想说的就是如果创业公司你要真正的保持自己的竞争力和优势的话不要把核心数据给 OpenAI 这种公司

像 Jasper 就是一个很好的例子就是他把他的所有的接口都调到 OpenAI 最后发现 OpenAI 已经把他的整个的能力替代掉了就是 Jasper 就没有多大的存在的价值了未来在国内也是一样的如果你自身有很多很优质的数据的时候你自己要去建闭环资源飞轮而不是把数据给到另外一家云厂商的 API 这其实是很危险的对你整个的业务说实话在 AI 的世界数据就是

业务数据就是业务好像最近也有很多声音是在说大家虽然国内的这个创业者一开始都是大家都比较熟悉怎么做工具做应用就奔着工具和应用去但是实际做到最后做到往后你就发现有价值的是数据这数据当然很重要但是怎么样用这个数据就是很关键的问题了就是你用什么样的算法用什么样的

架构搭什么样的系统怎么样形成一个所谓之前投资人爱说的是飞轮我们一般都说数据正反馈这是非常重要的觉得你现在碰到了整一个资本环境的你的感受是什么资本环境不好不好很正常因为第一个是美元愿意对风险偏好的美元基金基本上就不投中国的 AI 了这是一个

没有办法地点政治导致的因为一个国内的人民币基金相对来说对风险又没有那么喜好所以他追求的是更大的确定性所以对一些更前沿的探索可能也没有那么喜欢第三个是现在国内的创业者更多的要追求的是一开始就要盈利

这里是很多投资人一直都在这一波 AI 就是一直在说的就是一开始你就想要考虑怎么样盈利当然这是一个好的事情就是会少了很多这种就是单纯只是一个概念去拿钱的这种项目但是对一些需要长期的技术积累的这些领域的话就会比较短视对

我是觉得未来中国可能还是需要从应用落地的角度是一个很重要的发展但是更大的机会应该是在底层包括 OS 包括芯片否则的话就像过去互联网的时代大部分的价值其实是被 OS 和芯片拿走了而不是应用端我其实想再挖一挖就是那你们团队本身怎么去平衡或者说

应对这样子的一个环境呢因为其实我刚刚说我觉得你们做的更长期的意思是说我会认为你们做的是更底层的事情所以你作为一个商业公司来说它可能是一个当然你们现在也可以有一些商业化的收入然后团队也可以控制在一个比较这种非常清凉化的团队在运营嘛但是就是你

你们怎么平衡这个之间的关系这个很简单首先第一个我们开发者生态上面有很多做 2C 的应用的他可以用我们的模型去做应用然后我们参与分层其实我们就有盈利了这是一方面这是 2C 的 2B 的我刚才也提到了就是我们会做一些行业的一些模型给到集成商去用

一方面是因为我们会更节省算力就是你用我们的模型去做推理的话算力要求会低很多用消费级卡就可以另外一个就是其实我们从底层开始就是完全自主可控的所以国内的一些企业是用我们的会更放心第三个其实是大家可能没有意识到的一点 Raku 的

生产的可解释性会远比全数目要强可解释性这个也是在很多场景非常大的一个卡点所以你们现在你觉得你的下一个突破点或者你现在要突破的问题是什么我们要突破的问题

其实我们应该说我们现在主要在做两件事一个是新的模型架构可能 V7 到 V10 我们一直都会持续的去优化我们的架构第二个是我们会念更大的模型但是现在主要算力还在海外我们在国内也在寻求一些算力的合作包括捐助也好或者是合作的模型也好我们都是比较开放的

第三个就是复化生态就像我刚刚说的我们生态上的 2C 的创业者也好还是 2B 的集成商也好我们希望生态能够做得更大就这三件事情好的谢谢罗老师今天的时间希望下次有机会再来返场的时候看到你们对无限返场得到更好的有更好的消息