Porphet

Porphet

V2EX 第 413155 号会员,加入于 2019-05-17 13:36:07 +08:00
根据 Porphet 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
Porphet 最近回复了
四轮电动车,很小巧的那种,淘宝应该搜老年代步车。很方便,不给油门就自动刹车
歪个楼,是不是应该叫阈( yu )值😂
科学空间
@isler
反正不吃 CPU,坑就坑了,现在我自己用这一台,也没有多余的。
集群我反正是在机房里看见了四台 DGX A100 外加单独的万兆路由,酸死我了
@w1573007 #59
关于显存共享我差不多搞明白了,只针对深度学习:
1. 显存不可能在底层叠加,也就是说永远是四个单独的 24G 显存
2. 我认为的显存叠加只是增加了 batch_size 的大小(已实现),或者可以把模型分半一块卡加载一部分模型。
3. 第二条所述的功能都需要在代码层面实现,底层上是通过 PCIe 来传输梯度
4. NvLink 的作用就是加速第三条中梯度传输的速度,避免数据通过 CPU 传输,以实现类似一整块 4*24G 显卡的效果

这些是我踩坑之后的理解
@isler
Supermicro SYS-7048GR-TR
E5-2680V4 * 2
三星 32G RECC 内存 * 6
技嘉 RTX 3090 TURBO * 4
硬盘机械加固态

机箱和 CPU 应该是马上停产,供应商装好机器才跟我说,升级型号应该是 SYS-7049GP-TRT,CPU 也要换
虽说是塔式,我们还买了导轨,放在那种恒温机房里
@zirconium #50 在 jd 上找了一家超微的代理,让他给出了个配置单。然后找我们自己的供应商给买的设备加上安装和调试。
配置单我还有,但是供应商说这个 cpu 和主板马上要停产了,再买就要买新的了,超微的塔式四路 GPU 服务器好像就那一款
@secsilm 拿来做关系抽取的,要写论文的嘛,哈哈哈。就这样 batch_size 只能设 1,DDP 用起来四卡就占满了
@secsilm 基于 BERT 的实验,很占显存
关于   ·   帮助文档   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   1053 人在线   最高记录 5497   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 51ms · UTC 23:25 · PVG 07:25 · LAX 16:25 · JFK 19:25
♥ Do have faith in what you're doing.