LLaVA-o1 – 北大清华联合多所机构推出开源的视觉语言模型
LLaVA-o1是北京大学、清华大学、鹏城实验室、阿里巴巴达...
AIMv2是苹果公司开源的多模态自回归预训练视觉模型,通过图像和文本的深度融合提升视觉模型的性能。采用创新的预训练框架,将图像划分为非重叠的图像块,将文本分解为子词令牌,然后将两者拼接为统一序列进行自回归预训练。简化了训练过程,增强了模型对多模态数据的理解能力。AIMV2提供了多种参数规模的版本(如300M、600M、1.2B和2.7B),适用于从手机到PC等不同设备。在性能方面,AIMV2在多模态任务和传统视觉任务中均表现出色。