We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
back
2025.02.11 | LLMs生成多语言去毒数据,强化学习提升数学推理效率。
16:26
Share
2025/2/11
HuggingFace 每日AI论文速递
AI Chapters
Transcribe
Chapters
现代大语言模型能否成为少样本并行去毒化数据标注器?
数学推理中结果奖励的学习极限是什么?
10亿参数LLM能否超越4050亿参数LLM?
大语言模型如何实现无损加速?
Show-o Turbo:加速统一多模态理解和生成的未来是什么?
利用多智能体强化学习训练语言模型进行社会推理
ReasonFlux:通过扩展思维模板实现分层LLM推理
EVEv2:改进的无编码器视觉语言模型基线是什么?
LM2:大型记忆模型的潜力是什么?
大型视觉语言模型如何减少幻觉?
Matryoshka Quantization:嵌套量化的意义是什么?
Lumina-Video:多尺度Next-DiT的高效灵活视频生成
历史引导的视频扩散:CustomVideoX的潜力是什么?
APE:自适应并行编码的优势是什么?
Efficient-vDiT:高效视频扩散Transformer模型的意义是什么?
MetaChain:全自动且无需代码的LLM代理框架
Steel-LLM:构建以中文为中心的LLM的个人历程
深度在大语言模型中的诅咒是什么?
DreamDPO:通过直接偏好优化对齐文本到3D生成与人偏好
Dual Caption Preference Optimization for Diffusion Models
Shownotes
Transcript
No transcript made for this episode yet, you may request it for free.