Mini-Gemini:简单有效的AI框架,增强多模态视觉语言模型

Mini-Gemini:简单有效的AI框架,增强多模态视觉语言模型

    正在检查是否收录...
一言准备中...

近期,中国香港中文大学和 SmartMore 的研究人员推出了一种名为 Mini-Gemini 的新颖框架,通过增强多模态输入处理来推动 VLMs 的发展。Mini-Gemini 采用了双编码器系统和一种新颖的补丁信息挖掘技术,结合一个特别策划的高质量数据集,使其能够有效处理高分辨率图像并生成内容丰富的视觉和文本内容,从而使其脱颖而出。

Mini-Gemini 的方法论包括一个双编码器系统,其中包括一个卷积神经网络,用于精细处理图像,增强视觉标记而不增加它们的数量。它利用补丁信息挖掘来提取详细的视觉线索。该框架在一个复合数据集上进行训练,将高质量的图像文本对和面向任务的指令相结合,以提高模型性能和应用范围。Mini-Gemini 兼容各种大型语言模型(LLMs),参数范围从2B 到34B,实现了高效的任意推断。这一设置使 Mini-Gemini 在零样本基准测试中取得了卓越的成绩,并支持高级多模态任务。

在评估 Mini-Gemini 的有效性时,该框架在几个零样本基准测试中展示了领先的表现。具体来说,在 MM-Vet 和 MMBench 基准测试中,它超越了 Gemini Pro 模型,分别获得了79.6和75.6的分数。当配置为 Hermes-2-Yi-34B 时,Mini-Gemini 在 VQAT 基准测试中取得了令人瞩目的70.1分,超过了现有的 LLaVA-1.5模型在所有评估指标上的表现。这些结果验证了 Mini-Gemini 在处理复杂的视觉和文本任务时的高效性和精度。

该研究介绍了 Mini-Gemini,通过双编码器系统、补丁信息挖掘和高质量数据集推动了 VLMs 的发展。Mini-Gemini 在多个基准测试中展现了出色的性能,超越了现有模型,标志着多模态人工智能能力的重要进步。

然而,正如研究人员所承认的那样,Mini-Gemini 在视觉理解和推理能力方面仍有改进空间,他们断言未来的工作将探索视觉理解、推理和生成的高级方法。

项目入口:https://top.aibase.com/tool/minigemini

论文地址:https://arxiv.org/abs/2403.18814

geminilms多模态数据集高质量视觉理解零样本研究人员人工智能卷积神经网络smart模型性能评估指标vqa生成内容llms语言模型高分辨率神经网络大型语言模型
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-12231.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA

上一篇

马斯克推出Grok-1.5,接近GPT-4级别的性能

下一篇
  • 复制图片
按住ctrl可打开默认菜单