首页
论坛
Yoo趣儿
›
Geek
›
程序员
›
使用 llama3:70b 本地化部署, 100 人左右的并发,大概 ...
使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足?
查看
83
|
回复
3
作者:
leeum
发布时间:2024-4-29 11:07:00
有没有实操过本地化部署开源 llm 的老哥?这个需要大概多少的算力?
timeance
2024-4-29 11:07:37
你先测一下大概每秒有多少 token ,然后换算一下就大概知道了
hi2hi
2024-4-29 11:08:36
这,为什么还想着用 4090 呢?找论坛看看,用专业卡跑
levn
2024-4-29 11:09:20
云 gpu 服务器租一天测试一下不就知道了
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
浏览过的版块
Java
服务器
分享发现
优惠信息
社会资讯
问与答
工作求职
搜索
热门主题
ioio事件是什么鬼?
养老贷又来了,贷贷相传啊
今天要撸2次
好评有礼给的是红包还是优惠卷
现在干啥都太难了,珍惜吧
淘宝现在也好难搞啊
现在的ai能生产图文结合的内容吗
周固固突然发飙了,谁惹他了呢?吃光群众等
怎么吵架了啊
老坛们看过来,周固固同志狂撒金币。折射一
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部