弱师出高徒:COLM 2025 Delta Learning 揭示弱模型偏好数据如何驱动 SOTA 级后训练

昨天解读了 OLMo3 的技术报告,其中的 DPO 部分用到了 名为 Delta Learning 的方法。提出这个方法的论文《The Delta Learn ...

AllenAI OLMo 3 技术报告深度解析

报告链接:https://www.datocms-assets.com/64837/1763662397-1763646865-olmo_3_techn ...

HuggingFace 高分论文:首个达到 IPhO 金牌水平的开源模型是如何炼成的?

论文标题:P1: Mastering Physics Olympiads with Reinforcement Learning 论文链接:http ...

Meta 提出 SoCE 策略,仅靠权重融合实现 SOTA

论文标题:Souper-Model: How Simple Arithmetic Unlocks State-of-the-Art LLM Perfor ...

陈丹琦团队新作 Retaining by Doing:揭示 RL 比 SFT 为什么更能缓解灾难性遗忘

论文标题:Retaining by Doing: The Role of On-Policy Data in Mitigating Forgetting ...

微软提出 GAD:通过生成对抗蒸馏方法实现 On-Policy 蒸馏 GPT-5

论文标题:Black-Box On-Policy Distillation of Large Language Models 论文链接:https: ...

LightReasoner:利用小模型引导大模型推理的对比学习框架

论文标题:LIGHTREASONER: CAN SMALL LANGUAGE MODELS TEACH LARGE LANGUAGE MODELS RE ...

WeiBo AI 推出 1.5B 小模型,成本实现 SOTA 级推理

论文标题:Tiny Model, Big Logic: Diversity-Driven Optimization Elicits Large-Mode ...

Meta FAIR 推出 HERO:LLM 强化中集成稀疏与密集奖励

论文标题:Hybrid Reinforcement: When Reward Is Sparse, It’s Better to Be Dense ...

专挑模型的“软肋”下手:阿里 MIWV 如何实现用1%数据超越全量微调?

论文标题:Importance-Aware Data Selection for Efficient LLM Instruction Tuning ...