开源即屠榜!UniME多模态框架登顶MMEB训练榜,刷新多项SOTA纪录

格灵深瞳、阿里ModelScope团队及通义实验室机器智能团队联合发布的UniME多模态框架,在MMEB训练榜上刷新了多项SOTA纪录。

UniME采用两阶段框架,包括文本判别知识蒸馏和困难负样本增强指令微调,显著提升了模型的跨模态理解和判别能力。

该框架已开源,展示了在多模态检索和跨模态检索任务上的卓越性能。

[原文链接]

上一篇:

下一篇:

微信