首页
论坛
Yoo趣儿
›
Geek
›
程序员
›
使用 llama3:70b 本地化部署, 100 人左右的并发,大概 ...
使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足?
查看
107
|
回复
3
作者:
leeum
发布时间:2024-4-29 11:07:00
有没有实操过本地化部署开源 llm 的老哥?这个需要大概多少的算力?
timeance
2024-4-29 11:07:37
你先测一下大概每秒有多少 token ,然后换算一下就大概知道了
hi2hi
2024-4-29 11:08:36
这,为什么还想着用 4090 呢?找论坛看看,用专业卡跑
levn
2024-4-29 11:09:20
云 gpu 服务器租一天测试一下不就知道了
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
浏览过的版块
服务器
分享发现
站长
Windows
优惠信息
搜索
热门主题
国产英伟达,摩尔把上市融资的75亿元拿去买
✅DMIT 三网 GIA CMIN2 MALIBU EB 维多利亚
有MJJ遇到过TG号全部设备都被登出了吗?
【快讯】HostHatch Seoul HH 新节点 首尔
Hk-One-0.5G-52-LS 少量放貨 速度
公司项目分享:硅谷人工智能公司 Nexa AI
拿到了 300 来部短剧的海外发行版权,下一
长话短说 大家觉得花三十万结婚,存款花完
建议拉黑 IObit 旗下所有软件
重度苹果用户投华做了两面派
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部