Qwen2.5-1M – 阿里通义千问开源的语言模型,支持100万Tokens上下文

1个月前发布 29 00

Qwen2.5-1M是阿里通义千问团队推出的开源模型,支持100万Tokens的上下文长度。模型包括Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M两个模型。在长上下文任务中表现出色,优于之前的128K版本,特别是在处理超过64K长度的任务时。Qwen2.5-14B-Instruct-1M模型击...

收录时间:
2025-12-16
Qwen2.5-1M – 阿里通义千问开源的语言模型,支持100万Tokens上下文Qwen2.5-1M – 阿里通义千问开源的语言模型,支持100万Tokens上下文

Qwen2.5-1M是阿里通义千问团队推出的开源模型,支持100万Tokens的上下文长度。模型包括Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M两个模型。在长上下文任务中表现出色,优于之前的128K版本,特别是在处理超过64K长度的任务时。Qwen2.5-14B-Instruct-1M模型击败了Qwen2.5-Turbo,在多个数据集上稳定超越GPT-4o-mini。Qwen2.5-1M系列模型在短文本任务上的表现与其128K版本相当,确保了基本能力没有因为增加了长序列处理能力而受到影响。

官网:https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo


立即打开官网

数据统计

相关导航