组装个神经网络模型推理主机,放本地跑数据,大家觉得这配置怎么样

查看 58|回复 5
作者:kanson   
规格参数
  • 机型/机箱:GPU 服务器,中等塔式机箱
  • 主板:配置华硕/微星的 B760M 主板
  • CPU:配置 i7 13700KF 16C 2.7-5.4GHz 30M 125W 处理器
  • 内存:配置 1 条 32GB DDR4 内存条、4 个内存插槽
  • 硬盘:配置 1 块 480GB SATA 接口 SSD 硬盘
  • GPU 卡:配置 1 块 RTX 3090 24G GPU 卡
  • 电源:配置 750w 主机电源
  • 散热:配置水冷散热

    预算 1 万左右
  • iClass   
    2w 起步 💻
    lighting9792   
    要我的话会选 四卡 V100 SXM2 16G 服务器,丢弱电间用,反正自己玩玩不在乎速度,能跑就行
    jimrok   
    这个 24G 的卡,只能跑个小模型吧。不过学习用完全没问题。
    lloovve   
    上 D5 比较好,有些推理比较吃内存速度
    lloovve   
    另外硬盘太小了
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部