deepseek 有什么厉害的地方?用了之后没发现有什么特别的

查看 106|回复 19
WorldDominator   
为什么好,R1 低成本训练效果即接近 O1 ,说明达到 O1 的效果并不需要一堆 GPU ,带动 AI 芯片股暴跌。至于是不是需要那么多来训练,都开源了谁都可以试一试
csys   
@WorldDominator 这是经济和金融上
对于 AI 本身来说,r1 证明了是可以通过纯 RL 而不需要 SFT 来获得强大的推理能力的,这意味着很可能会是一个 LLM 领域的 AlphaGo 时刻
甚至哲学上它对人的思维是否可以合成这个命题都会产生挑战(当然这个是我胡思乱想的)
r1 的实现路线这些都是在 r1 的论文上公开了的,论文写的也非常通俗易懂,也有小规模的复现
论文不看技术不懂,满脑子炒币的人,这辈子有了
lscho   
[除了说的便宜,成本低,实际它用多少块 GPU ,也没人知道。]
人家开源了,要不要那么多快 GPU 谁都可以试试
snsn   
感觉炒得很厉害今天微博全是热搜 下了个客户端使用了一下 注意到一条介绍
•安全机制:构建了包含 1.2 亿条中文敏感词的多层过滤系统
ShadowPower   
可以看看 huggingface 的 Open R1 项目,根据论文来复现 Deepseek R1
https://github.com/huggingface/open-r1
在此之前,世界上从未有人提出这种训练方式且最终取得成功,所以这就是创新。
这个项目从侧面证明了 Deepseek 的强大,以至于美国的公司也愿意尝试复现它。
> 反而觉得还没有豆包好
如果是文学、历史,或者其他开放类问题,可能是数据集质量好。如果是推理、数学或者代码类问题,我试过,豆包差得远……
ShadowPower   
@snsn 只要你有足够强大的电脑,可以离线使用这个模型,以 MIT 协议公开,不需要联网,哪怕代码里写了过滤你也可以手动去掉
Aaralyn   
很多东西不能问你还敢说不特别?
lovestudykid   
不要把自己的价值观寄托在输赢上,否则不如你预期一样时会很痛苦
wittyfans   
让英伟达下跌 20%,市值缩水 6000 亿美金算不算厉害?
cherbium   
第一:这货绝对花钱买热搜了
第二:隔行如隔山,我一直用 openai 的,然后推荐给朋友用(她是行政的),她觉得还没国内的好用,确实是这样,我感觉国外的 ai 对程序员友好,国内的 ai 更倾向于“智能搜索引擎”,数据集多质量好,适合普通人用
您需要登录后才可以回帖 登录 | 立即注册

返回顶部