
![]() |
学习大模型的显卡怎么选型 cuteshell • 17 小时 16 分钟前 • 最后回复来自 coefuqin | 30 |
![]() |
求本地部署的 AI 推荐~ WessonC • 2 天前 • 最后回复来自 happybabys | 11 |
![]() |
多少钱能搞个本地大模型环境 zsvc • 4 天前 • 最后回复来自 ericguo | 71 |
![]() |
本地部署视觉大模型,用于 OCR 中文文献+翻译,最好的模型是什么? villivateur • 3 天前 • 最后回复来自 mili100 | 21 |
![]() |
mac studio 跑大模型也就那样啊 guoguobaba • 15 天前 • 最后回复来自 fredweili | 26 |
ollama 跑 Qwen2.5:7b 可以用上 gpu,但是用 gemma3 和 qwen2.5vl:7b 都只用 cpu shyr0ck • 17 天前 • 最后回复来自 YsHaNg | 3 |
本地 vllm 部署 Qwen2.5-7B-Instruct 在 stream 模式下 tool_calls 参数 JSON 字符串未正常闭合 BenchWidth • 18 天前 • 最后回复来自 BenchWidth | 2 |
![]() |
有没有能 mac 上直接跑的多语言翻译 LLM? idblife • 3 天前 • 最后回复来自 mili100 | 4 |
英语文本音频按句自动对齐的有推荐的吗? afkool • 26 天前 • 最后回复来自 barnetime | 8 |
![]() |
llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 coefuqin • 43 天前 • 最后回复来自 coefuqin | 4 |
本地 llm client kid1412621 • 46 天前 • 最后回复来自 kid1412621 | 5 |
![]() |
公司要搭建本地大模型,推荐配置。 Woolaman • 46 天前 • 最后回复来自 coefuqin | 10 |
![]() |
有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu • 46 天前 • 最后回复来自 coefuqin | 2 |
![]() |
跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere • 49 天前 • 最后回复来自 egen | 9 |
![]() |
想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 • 56 天前 • 最后回复来自 coefuqin | 28 |
本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu • 57 天前 • 最后回复来自 tool3d | 7 |
![]() |
单卡 2080ti 22gb 装机其他怎么配啊 NoahBishop • 61 天前 • 最后回复来自 NoahBishop | 8 |
![]() |
本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意 MHPSY • 62 天前 • 最后回复来自 tomczhen | 1 |
![]() |
本地 AI 工作站装机 fcten • 62 天前 • 最后回复来自 coefuqin | 17 |