第一次发帖,不知道是否发在合适的节点,如果发错了,还请见谅。 废话不多说,配置如下: [ol]主板:超微 X9SRL-F ,两个 PCIE 3.0 ✖️ 16 槽,若干个 PCIE 3.0 ✖️ 8 槽;显卡:英伟达 Tesla P40 ✖️ 2 + AMD GT650 亮机卡;CPU:至强 E5-2680V2 ;内存:三星 DDR3 32G ✖️ 4 ;硬盘:随便;电源:挑个 1000W 以上的。 [/ol] 上面这样一套配置跑深度学习以及训练模型可以吗,有什么坑吗? 提前谢谢大家! pcie, 亮机卡, 模型, ️
@tap91624 谢谢回复,想请教下一般在什么场景下会对 FP16 有较高的要求?也正是因为这个,之前一直在纠结到底是 P40 还是 P100 ,Reddit 上网友说如果是要 train 或者 fine tune 模型的话,P40 更合适,如果是 model inferencing 的话,那 P100 更合适些,不知道这是不是和半精度有关。
@stimw 谢谢回复,魔改 2080ti 之前也考虑过,一同考虑过的还有魔改的 3060 12G 之类的,感觉配置起来会省心很多,不用搞外部散热,也不要转接线什么的,但是就怕魔改的用起来有这样那样的问题,网上很多人也不推荐魔改的,不知道实际情况到底咋样。