Wenxuan Wang
Yummytanmo
Github
推荐文章
  • FoodSeg
  • ACL2025
  • CSDN
往期整理
  • 历史归档
  • 文章分类
  • 文章标签
关于我

Wenxuan Wang | 探索AI的无限可能

0
Home
技术分享
学习笔记
研究调研
课程资料
Efficient Reasoning
Category
Efficient Long CoT Reasoning in Small Language Models
学习笔记
Efficient Long CoT Reasoning in Small Language Models
该文章提出了一种高效的方法,通过带回溯的二分剪裁算法来修剪冗余的思考步骤,并开创性地让小模型自己(On-policy)来验证数据的有效性,从而为其量身定制出简洁且易于学习的推理样本,解决了长链思考能力难以被有效蒸馏的问题。
论文
Reasoning
SLM
你好!我是
Wenxuan Wang

Wenxuan Wang

-- 感谢您的支持 ---
 
了解更多

微信公众号

关注微信公众号了解更多

点击关注公众号
Latest posts
Lazy loaded image
DAST: Difficulty-Adaptive Slow Thinking for Large Reasoning Models
2025-6-30
Lazy loaded image
ACL2025 SLM
2025-6-17
Lazy loaded image
O1-Pruner: Length-Harmonizing Fine-Tuning for O1-Like Reasoning Pruning
2025-6-17
Lazy loaded image
L1: Controlling How Long A Reasoning Model Thinks With Reinforcement Learning
2025-6-15
Lazy loaded image
When More is Less: Understanding Chain-of-Thought Length in LLMs
2025-6-14
Lazy loaded image
Efficient Long CoT Reasoning in Small Language Models
2025-6-12
推荐
9
Efficient Reasoning
3
Make Long CoT Short
3
RL-based Methods
3
思考
2
新闻
2
课程
2
论文
2
Reasoning
2
文字
1
工具
1
开发
1
AI Infra
1
MARL
1
Python
1
CV
1
SLM
1
Background
1

文章数:
1
建站天数:
79 天
访问量:
访客数:

Powered byNotionNext 4.8.4.
2025Wenxuan Wang | 探索AI的无限可能