使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足?

查看 47|回复 3
作者:leeum   
有没有实操过本地化部署开源 llm 的老哥?这个需要大概多少的算力?
timeance   
你先测一下大概每秒有多少 token ,然后换算一下就大概知道了
hi2hi   
这,为什么还想着用 4090 呢?找论坛看看,用专业卡跑
levn   
云 gpu 服务器租一天测试一下不就知道了
您需要登录后才可以回帖 登录 | 立即注册

返回顶部