ModernBERT – 英伟达和 HuggingFace 等机构联合开源的新一代编码器模型

1个月前发布 35 00

ModernBERT是Answer.AI、LightOn、约翰斯·霍普金斯大学、英伟达和HuggingFace联合推出的现代编码器-only Transformer模型,是对经典BERT模型的一次重大升级。ModernBERT在2万亿token的大规模数据上训练,支持长达8192 token的序列长度,显著提升处理长上下文的能力。Mode...

收录时间:
2025-12-16
ModernBERT – 英伟达和 HuggingFace 等机构联合开源的新一代编码器模型ModernBERT – 英伟达和 HuggingFace 等机构联合开源的新一代编码器模型

ModernBERT是Answer.AI、LightOn、约翰斯·霍普金斯大学、英伟达和HuggingFace联合推出的现代编码器-only Transformer模型,是对经典BERT模型的一次重大升级。ModernBERT在2万亿token的大规模数据上训练,支持长达8192 token的序列长度,显著提升处理长上下文的能力。ModernBERT在多种自然语言处理任务上性能赶超SOTA,同时速度是DeBERTa的两倍,特别适合信息检索、文本分类和实体识别等应用。模型现已开源,供学术界和工业界研究和应用。

官网:https://github.com/AnswerDotAI/ModernBERT


立即打开官网

数据统计

相关导航