We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
back
2025.01.28 | Baichuan多模态模型表现优异,长上下文处理成本降低。
07:22
Share
2025/1/28
HuggingFace 每日AI论文速递
AI Chapters
Transcribe
Chapters
Baichuan-Omni-1.5技术报告
Qwen2.5-1M技术报告
面向通用无模型强化学习的研究
Emilia:一个大规模、广泛、多语言和多样化的语音生成数据集
ARWKV:预训练并非我们所需要的,基于RNN-注意力机制的语言模型诞生于Transformer
iFormer:将卷积网络与Transformer集成应用于移动应用
参数 vs FLOPs:混合专家语言模型最优稀疏性的缩放规律
混合Mamba:通过模态感知稀疏性增强多模态状态空间模型
可行学习
Shownotes
Transcript
No transcript made for this episode yet, you may request it for free.