测试了可离线部署的本地多模态模型"Qwen-VL-Chat"

查看 38|回复 1
作者:smalltong02   
我从 Gemini Ultra 的发布会测试视频中挑选了 12 项和图像相关的测试

测试, 模态, Gemini, Ultra

smalltong02
OP
  
今天,我使用可离线部署的 "Qwen-VL-Chat"模型进行同样的测试。"Qwen-VL-Chat "是阿里云开发的开源多模态大型模型,总参数规模约为 100 亿,其中文字部分 70 亿,图形部分 30 亿。半精度加载的内存占用仅约 20GB ,是非常适合本地部署的开源模型。本轮测试共提取了 12 个测试用例,总分是 12 分,"Qwen-VL-Chat"最终得到了 6 分。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部