OpenThinker-32B – 斯坦福、UC 伯克利等机构联合开源的推理模型

1个月前发布 36 00

OpenThinker-32B 是斯坦福、UC 伯克利、华盛顿大学等机构联合开发的开源推理模型,拥有 328 亿参数,支持 16,000 token 的上下文长度。模型仅使用 114k 数据样本进行训练,在多个基准测试中表现出色,优于 DeepSeek-R1-32B。关键在于数据规模化、严格验证和模型扩展。OpenThinker-32B ...

收录时间:
2025-12-16
OpenThinker-32B – 斯坦福、UC 伯克利等机构联合开源的推理模型OpenThinker-32B – 斯坦福、UC 伯克利等机构联合开源的推理模型

OpenThinker-32B 是斯坦福、UC 伯克利、华盛顿大学等机构联合开发的开源推理模型,拥有 328 亿参数,支持 16,000 token 的上下文长度。模型仅使用 114k 数据样本进行训练,在多个基准测试中表现出色,优于 DeepSeek-R1-32B。关键在于数据规模化、严格验证和模型扩展。OpenThinker-32B 完全开源,包括模型权重、数据集、数据生成代码和训练代码,为 AI 社区提供了宝贵的资源。

官网:https://huggingface.co/open-thoughts/OpenThinker-32B


立即打开官网

数据统计

相关导航