V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
defaw
V2EX  ›  程序员

glm code plan lite 疑似启用了量化或者什么手段优化降低算力消耗

  •  
  •   defaw · 1 天前 · 790 次点击

    从昨晚上开始,以前长上下文不会出现没有拼写错误硬说有的情况,但是从昨晚上开始,已经碰上两次了,然后就是速度也变快了。 质谱近期适配了很多国产推理卡,也可能是换了推理环境导致的。

    3 条回复    2026-02-14 22:19:31 +08:00
    iorilu
        1
    iorilu  
       1 天前
    这还要疑似吗

    不会有人真的认为会给你用 700 多 B 的模型把
    defaw
        2
    defaw  
    OP
       1 天前
    @iorilu 671b 的 deepseek 一直都是输入 2 块输出 3 块走缓存还更便宜啊,和参数量有什么关系呢
    wengjin456123
        3
    wengjin456123  
       1 小时 41 分钟前
    我实际使用量挺大的,目前看还是比 deepseek v3.2 api 更快,质量也大于等于,我觉得挺好的,如果这个是量化后的模型,那我就有点佩服了.....
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1773 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 16:00 · PVG 00:00 · LAX 08:00 · JFK 11:00
    ♥ Do have faith in what you're doing.