关于使用 AI 和本地大模型总结聊天记录的办法

查看 13|回复 1
作者:mdb   
近两年 AI 和大模型很火热,我对此则完全属于门外汉,只是用过一些 openAI 的镜像站还有一些国内的大模型,今天用钉钉的时候试着用自带的 AI 让它帮我写下周报,发现效果还行,感觉它是把我自己在钉钉写的文档和表格一类的做了些总结,然后输出,惊叹之余不免又有点心惊的感觉,毕竟数据全在它的后台上,它根据你输出的内容做了训练之类的,然后才能总结果出来,也就是说你产生的内容对它是全透明的;
后来又听说了一些本地大模型的东西,它运行在本地,从安全性来说不会往别的地方传输你的数据,这就让人比较放心了,当然本地的性能肯定是没法和服务器相比,所以跑一些小模型应该没问题,由此正好又有了一个想法,就是能不能把多年来的聊天记录灌输到大模型里然后让它做一个总结,我想应该是可行的
首先聊天记录属于隐私数据,在本地跑比较合适,可能别的 AI 它也能帮你总结,但是你得把数据给别人
然后聊天记录基本都是文本数据,总量来说并不大,本地机器性能应该足够
根据上面这两点判断让我感觉应该可以实现我的想法,初期要求能通过大模型输入我的聊天记录后,它进行处理,最后我可以问它问题,比如帮我总结下我和谁谁谁的聊天记录,然后它进行输出;如果有这个功能就非常好了,有些人可能很久没联系,忘了以前聊过些什么,不用回去翻聊天记录,总的聊天记录有十年多了,包含个人和群聊的,QQ 和微信的,之前用过词云进行分析,但结果不佳
有了想法后,现在的问题就是怎么实现,应该用什么大模型合适,我对此完全不懂,希望对此有了解的大佬能指条路或者步骤,尽量可以简单实现,我也可以学习一些相关的资料,当然不要直接说先从微积分和线性回归之类的学起,我只是想实现功能然后使用,不是深入研究和开发 AI
clino   
你这个需求是不是就是知识库聊天机器人的需求,就是 RAG 方式的就能满足
用 QAnything FastGPT 之类的可以试试
但是问题是你如果不想要调云上的 api ,那就要本地有显卡才能跑大模型,你有能跑大模型的显卡吗?
您需要登录后才可以回帖 登录 | 立即注册

返回顶部