V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
8675bc86
V2EX  ›  OpenAI

本地部署 qwq 32b 回答很笨是什么原因

  •  
  •   8675bc86 · 5 天前 · 1095 次点击

    昇腾 300i DUO 服务器部署的,显存占用快 160G ,回答问题还挺快的,占用率在 70%+,但是不太会写代码,跟网页版差别巨大。

    8 条回复    2025-03-21 17:03:16 +08:00
    shelken
        1
    shelken  
       5 天前 via iPhone
    量化的版本了吧
    AndrewHenry
        3
    AndrewHenry  
       5 天前
    量化版本吗?调调温度什么的
    8675bc86
        4
    8675bc86  
    OP
       4 天前
    @AndrewHenry @shelken @YsHaNg
    modelscope download --model Qwen/QwQ-32B
    用的是这个,温度和其他设置好像没多大的作用。

    又试了一下这个:modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-32B

    比上面的那个好一点,也是啰里八嗦,很蠢。
    YsHaNg
        5
    YsHaNg  
       4 天前
    @8675bc86 unsloth 的建议是给 ollama 的 不知道你的模型加载器是什么
    8675bc86
        6
    8675bc86  
    OP
       3 天前
    @YsHaNg 我用的华为那一套 mindie 。
    8675bc86
        7
    8675bc86  
    OP
       3 天前
    @YsHaNg 前端用的 openwebui ,在界面配置的温度等配置。
    YsHaNg
        8
    YsHaNg  
       3 天前 via iPhone
    @8675bc86 那这建议可能不太适用 你得找华为的人
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4101 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 00:58 · PVG 08:58 · LAX 17:58 · JFK 20:58
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.