V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
chenqh
0D
V2EX  ›  Local LLM

deepseek 如何本地部署啊.

  •  
  •   chenqh · 7 天前 · 254 次点击

    我现在下了 ollama,现在卡在下载那个 deepseek-r1:8b 模型上.

    我的机场好像不行.下不动.下了一会儿就断了.

    所以我想要有什么镜像什么的.

    根据 deepseek 搜到的设置 $env:OLLAMA_HOST="mirror.ollama.ai:11434" 也不行.

    你们是怎么下载的呢?

    chspy
        1
    chspy  
       5 天前
    我用的 ppio ,他们接入的模型比较多,然后有问题还可以问技术支持,蛮方便的,你可以用我的码 WF34BQ 去试试
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   966 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 19:54 · PVG 03:54 · LAX 11:54 · JFK 14:54
    ♥ Do have faith in what you're doing.