V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Daybyedream
V2EX  ›  Local LLM

无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流)

  •  
  •   Daybyedream · 7 天前 · 478 次点击

    领导要求将大模型部署到无 GPU 的机房服务器,模型规模为个位数 B (如 7B ),后续会处理输出过来的信息。 领导明确不要 Ollama ,用啥部署呢?求推荐

    4 条回复    2025-03-26 00:48:20 +08:00
    NoahBishop
        1
    NoahBishop  
       5 天前 via Android
    你要不看看 llama.cpp ,自己写个兼容的吧。
    coefuqin
        2
    coefuqin  
       2 天前
    鸟领导很难伺候啊,就这硬件成本还挑三拣四,能搞出来就不错了。
    coefuqin
        3
    coefuqin  
       2 天前
    老弟你运气不错,刚才我搜了下方案,还真被我找到了。
    https://github.com/intel/ipex-llm/blob/main/docs/mddocs/DockerGuides/vllm_cpu_docker_quickstart.md
    Daybyedream
        4
    Daybyedream  
    OP
       1 天前
    @coefuqin 专业!我前两天沟通过了最后搭了 ollama+dify
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2862 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 14:41 · PVG 22:41 · LAX 07:41 · JFK 10:41
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.