V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
bushnerd
V2EX  ›  Local LLM

一块 4090,怎么来评估部署大模型后(假设为 DeepSeek-R1-Distill-Qwen-7B)的并发数?、、

  •  
  •   bushnerd · 5 天前 · 299 次点击

    一直很好奇,如何来计算并发? 假设 DeepSeek-R1-Distill-Qwen-7B 部署到 4090 ,能达到 5000 tokens/s 。 那么如果是 100 并发,则每个并发可以支持 50 tokens/s 。 如果是 1000 并发,则每个并发可以支持 5 tokens/s 。

    这个算法我觉得肯定不对,实际使用中估计与很多因素有关系,所以想上来请教一下大家。

    1 条回复
    jroger
        1
    jroger  
       4 天前 via iPhone
    这个跟 max_token 有关系,这个参数设置的值越大并发数越低。设置为 2048 ,最大 10 个并发。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1109 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 20ms · UTC 22:53 · PVG 06:53 · LAX 15:53 · JFK 18:53
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.