V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ZimaBlueee
V2EX  ›  Local LLM

A30 显卡-24G 显存,推荐部署什么大模型呢

  •  1
     
  •   ZimaBlueee · 12 天前 · 568 次点击

    想部署一个不带推理的大模型,推理耗时太长了。

    现在部署的是智谱清言的 chatglm4-9b-chat ,请问有更合适的模型推荐嘛?

    符合下面条件:

    1. 国产
    2. 上下文 2k 的情况下,并发数能有 5
    3. 当然,越聪明越好

    求哥哥们推荐!!

    顺便求一个相对权威的大模型排行榜

    7 条回复    2025-03-18 20:01:50 +08:00
    jackerbauer
        1
    jackerbauer  
       12 天前
    deepseek-r1 14B
    ZimaBlueee
        2
    ZimaBlueee  
    OP
       12 天前
    @jackerbauer 不需要推理哈,推理的时间太长了
    linauror
        3
    linauror  
       12 天前
    你的意思应该是不需要思考过程吧,大模型都是要推理的 O(∩_∩)O
    liu731
        4
    liu731  
       12 天前
    cat9life
        5
    cat9life  
       12 天前
    那必须是 QwQ-32B ,当红炸子鸡
    ZimaBlueee
        6
    ZimaBlueee  
    OP
       12 天前
    @linauror 这个名词我找 ai 问过,ai 说思考过程是拟人化的表达,表述成显示化推理会更准确。。我也分不清了 QAQ
    ijk0
        7
    ijk0  
       6 天前 via iPhone
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5812 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 02:23 · PVG 10:23 · LAX 19:23 · JFK 22:23
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.