在几个月前我曾经用 chatglm-6b 训练过我自己的数字克隆: https:///t/931521#reply161
此后的开源模型开始井喷,但其质量和 GPT 的差距依然巨大,我开始琢磨,能否通过微调的方式来增加开源通用大模型在某些垂直领域的表现,在尝试的过程中,我意识到,如果不降低训练的门槛,那这个可能性微乎其微,然后我和几个朋友就开始以兼职,远程,业余时间的方式完成了这个低门槛进行文本大模型训练微调的 Saas
这就是模迪手: https://www.modihand.com (好的我也是硅谷的粉丝,我心头的美剧前三
因为这是 V2EX ,所以我想我应该不用再详细说明训练和 embedding 的区别,虽然有很多人说「训练」的时候其实是在说 embedding 和 prompt 工程,但两者本质上就是完全不同的。训练改变了模型的参数,而 embedding 没有,只是从知识库匹配一段文本放到 prompt 里一起给模型。
模迪手简单易用,只需要准备好数据集,在网页上点点点,然后就可以训练了,训练完成后的模型,可以在线调用,也可以直接导出模型文件。
它的一些特点包括:
当然目前也存在一些问题:
考虑到现在 openai 的强大,这个拥抱开源大模型的项目其实前景很不确定,但我觉得它至少帮我解决了很多问题,我也觉得需要有这么一个东西(我还没有看到类似的)
如果大家有有趣的想法或者有意思的数据集,可以评论或直接通过这个表单填写一下,我们可以提供模迪手的免费算力,让你能够训练出来玩玩看(我之前的一个不算太成功的例子: https:///t/945834#reply18
模迪手: https://www.modihand.com/