Qwen2.5-1M – 阿里通义千问开源的语言模型,支持100万Tokens上下文
Qwen2.5-1M是阿里通义千问团队推出的开源模型,支持1...
CodeElo 是用于评估大型语言模型(LLMs)在编程竞赛级别 代码生成 能力的基准测试工具。通过与人类程序员的 Elo 评级系统进行比较,来衡量 LLMs 的编程水平。工具从 CodeForces 平台选择题目,按比赛分区、难度级别和算法标签进行分类,确保问题的多样性和代表性。CodeElo 的评估方法非常稳健,提交的代码直接在 CodeForces 平台上进行测试,基于特殊的评估机制,确保准确判断代码的正确性。使用 Elo 评级系统来计算评分,考虑问题难度并对错误进行惩罚。在对多个开源和专有 LLM 进行测试后,OpenAI 的 o1-mini 模型表现最佳,超过了 90% 的人类参与者。CodeElo 的推出旨在解决现有基准测试的局限性,提供一个更全面、准确的评估环境,帮助研究人员和开发者更好地理解和改进 LLMs 的 编程 能力。