V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
pigzilla
V2EX  ›  NVIDIA

现在 2000 以内的预算,买啥 N 卡跑 AI 最划算?主要是测试各种 AI 相关的软件,大模型也会试试。

  •  
  •   pigzilla · 35 天前 · 3425 次点击
    这是一个创建于 35 天前的主题,其中的信息可能已经有所发展或是发生改变。
    40 条回复    2025-03-07 16:23:37 +08:00
    fskemp233
        1
    fskemp233  
       35 天前
    小黄鱼 32G 康康。大模型快慢你要先放一边了。
    renmu
        2
    renmu  
       35 天前 via Android
    加个 0 勉勉强强,要么就 2080 及其魔改版
    hertzry
        3
    hertzry  
       35 天前 via iPhone   ❤️ 2
    SXM2 的 V100 16G 加 PCIe 转接卡,2000 只能这样了。
    pixelbook
        4
    pixelbook  
       35 天前
    等 5060 吧
    gaobh
        5
    gaobh  
       35 天前 via iPhone
    这价位只能 2080ti 魔改
    xausky
        6
    xausky  
       35 天前
    2080ti 22g 魔改要么,我想出
    pigzilla
        7
    pigzilla  
    OP
       35 天前
    @xausky #6 抱歉,是公司测试买,需要发票的。
    pigzilla
        8
    pigzilla  
    OP
       35 天前
    感谢各位的意见。忘记提了,是公司测试用途买的,所以需要能开票的,闲鱼和各种魔改的方案都不行。

    我自己找了下淘宝的价格,好像只有 3060 12GB 的能符合。
    nocae
        9
    nocae  
       35 天前
    @xausky 什么价格老哥,我有意愿
    xausky
        10
    xausky  
       35 天前 via Android
    2080ti 22g 公版涡轮扇,某鱼价格 2500 左右,要的话 2400 顺丰包邮卖你,不管现存还是性能都比 op 选的 3060 好。
    @nocae
    nocae
        11
    nocae  
       35 天前
    @xausky 公版涡轮的就算了,我是打算装自己用的电脑上,通风不太够涡轮,😭
    zuotun
        12
    zuotun  
       35 天前
    两千块跑 AI 还要开票?没有这种东西,别说划算了,连门槛都够不着。
    mumbler
        13
    mumbler  
       35 天前   ❤️ 1
    2080ti 魔改 22G+洋垃圾 E5 准系统,大概 4000 元,能跑 99%开源项目的模型,deepseek R1 32B 能流畅跑

    生产力工具别省钱,宁可不吃饭
    Foxkeh
        14
    Foxkeh  
       35 天前
    租用云服务器算力吧,能开票
    lneoi
        15
    lneoi  
       35 天前
    对 租服务器吧
    macadurian
        16
    macadurian  
       35 天前
    4060Ti 16GB ,预算提升一下,4070
    paopjian
        17
    paopjian  
       35 天前
    这公司有点搞笑了, 2000 想搞 AI, CPU 乱七八糟的怎么办? 直接买服务吧, 要是两千万当我没说
    gouflv
        18
    gouflv  
       35 天前 via iPhone
    2000 看着少,但也别这么浪费,劝你们老板留着吃顿好的吧
    ferock
        19
    ferock  
       35 天前 via Android   ❤️ 1
    用下来,mac mini 性价比最高,可以流畅跑 14b ,可以跑 32b 一秒大概 4 、5token ,3600 的价格
    pwinner
        20
    pwinner  
       35 天前 via iPhone
    2000 建议吃顿好的,或者调硅基流动之类推理平台的 api ,本地推理要么建议找台有 avx512 的电脑多插点内存用 cpu 推理到天荒地老
    leo72638
        21
    leo72638  
       35 天前 via iPhone
    2000 还要票,建议云上跑吧,买 N 卡真是门槛都够不着
    pigzilla
        23
    pigzilla  
    OP
       34 天前
    @Foxkeh #14
    @lneoi #15

    感谢建议。不过我们需要测试和调试底层驱动的东西,所以云服务不行。

    另外,我发现大部分回复者都挺搞笑,属于一班只懂个皮毛就尾巴翘上天的:

    第一阅读能力不行:我已经写的很清楚了,“主要是测试”,而不是跑生产应用;“大模型也会试试”,而不是专跑大模型。

    第二对 AI 的理解极为偏执:以为 AI==LLM ,以为 AI==上层的应用。实际上 AI 的应用类型极多,涉及到的也是整个系统——硬件+OS+驱动+系统库+应用库+AI 框架+应用...,训练和推理场景也有很大差别。不是所有 AI 人的工作都是搞个上层应用包装个 LLM 来对话。在你们心里面,底层的那些东西都是货架上刷新出来的么?

    第三以为所有东西都要靠堆钱来解决。实际上 2000 以内 N 卡 3060 12G 可跑 DS-R1 14b(9GB),用来测试绰绰有余。我们还要测 Intel Arc A770 (一样 2000 以内),同样也是为了了解不同方案的表现和性价比。更不用说清华最近那个新的突破了(虽然还是要 24G 显存,但谁说未来不能更小?)
    norland
        24
    norland  
       34 天前
    算了,还是建议楼主有机会换个公司吧。
    w568w
        25
    w568w  
       34 天前
    @pigzilla #23 楼主具体描述一下需求?

    1. AI 到底是指哪一类?下到单片机几十 MB 内存跑 YOLO ,上到几千张 H100 集群跑 LLM 预训练都叫「 AI 」…

    2. 面向的场景是什么?单机部署模型?端侧推理?还要调试底层驱动,是做 NPU 开发?
    joyhub2140
        26
    joyhub2140  
       34 天前
    这个预算还不如租用云厂商的 GPU 资源。
    MacsedProtoss
        27
    MacsedProtoss  
       34 天前 via iPhone   ❤️ 2
    @pigzilla #23 这个定义你要说就早点说 描述啥都没有在这里让人猜吗?现在语境里谁不是默认 ai=大模型?
    GGMM
        28
    GGMM  
       34 天前   ❤️ 1
    1 、如果看 GPU ,买显存最高的版本,可以不关注算力。那可能就是 3060 12g 或者 4060 16g ,后者会超预算。
    2 、如果是推理,不训练,可以看看一些计算棒( NPU )或者换 CPU
    ccys
        29
    ccys  
       34 天前
    @xausky 多少钱
    jamos
        30
    jamos  
       34 天前   ❤️ 1
    3060 12G ,14B 我这边跑不起来,直接回退到使用 cpu 的,非常慢
    JensenQian
        31
    JensenQian  
       33 天前
    2000 块钱
    买个 4060 打游戏都觉得垃圾
    跑 ai 加点钱吧
    至少怎么也得 4070ti super 这种卡吧
    JensenQian
        32
    JensenQian  
       33 天前   ❤️ 2
    @JensenQian 常见显卡给你看下
    来源 https://www.bilibili.com/video/BV1ogAKe3EAb/
    2000 预算买个 100 瓦的 4060 打游戏都觉得不太行真的
    老黄现在显卡感觉没个 5000 块都没法入门了感觉

    ![]( )
    ![]( )
    roygong
        33
    roygong  
       33 天前 via iPhone
    直接租服务器,放弃本地跑大模型的幻想。不过这预算真要租服务器跑大模型,估计一周也就花完了。
    pigzilla
        34
    pigzilla  
    OP
       33 天前
    @GGMM #28 感谢。这个的确和我自己找的信息一致。

    @jamos #30 能详细说说吗? DS-R1 14b 的容量我看 ollama library 上不是 9GB ,足够载入显存吗?你跑不起来是显存不够还是速度太慢还是别的问题?不过这对我也不是啥问题,14b 不行可以拿 8b 、7b 的测试。
    pigzilla
        35
    pigzilla  
    OP
       33 天前
    铜币已送给有建设意义回复。谢谢各位。
    kloseWu
        36
    kloseWu  
       33 天前
    2000 的话只能上 P40 了
    xyfan
        37
    xyfan  
       33 天前   ❤️ 2
    你自己不把需求说清楚还在这指责别人,还说“14b 不行可以拿 8b 、7b 的测试”,那你直接用 1.5b 不就行了,2G 显存都能跑,买个 GTX750 亮机卡也能测试。
    Bom
        38
    Bom  
       33 天前
    +1
    kennylam777
        39
    kennylam777  
       18 天前
    才 2000 塊, 跑 8bit quantization 的 VRAM 也不夠, 不如拿去租 GPU 摸清楚需求再算
    tool2dx
        40
    tool2dx  
       15 天前
    @pigzilla "DS-R1 14b 的容量我看 ollama library 上不是 9GB ,足够载入显存吗?"

    纯聊天是够的,但默认 ollama 上下文只有 2k ,你要处理文档的话,一个 20k 字节的文本,必须要修改成 16k 上下文才行。这个设置很吃显存,直接就爆显存了。

    如果把 12G 换成 16G 显存,那是没问题的。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   899 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 21:17 · PVG 05:17 · LAX 14:17 · JFK 17:17
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.