
![]() |
使用 dify 编写智能体的时候, 如何让 LLM 节点能够强制输出结构化输出 Schema skyworker • 5 天前 • 最后回复来自 huangfuyingjian | 1 |
![]() |
Grok 4 发布 alanying • 10 天前 • 最后回复来自 MaybeRichard | 10 |
有人在本地跑模型吗? lihuashan • 16 天前 • 最后回复来自 lihuashan | 6 |
![]() |
目前哪个大模型适合本地部署用来纯翻译? Noby • 22 天前 • 最后回复来自 5had0w | 23 |
我做了一个 Ollama JSONL 批量推理工具,除了 Ollama 还支持 Deepseek 等 OpenAI Style 兼容 API mili100 • 33 天前 • 最后回复来自 mili100 | 2 |
有个大模型相关的副业想法,大家帮忙看看有没有需求 buwenhe • 34 天前 • 最后回复来自 coefuqin | 5 |
![]() |
个人电脑,适合跑哪个本地大模型? laijh • 33 天前 • 最后回复来自 mili100 | 21 |
![]() |
huggingface-cli hf_xet 插件经常报 dns error 是咋回事 guoguobaba • 41 天前 • 最后回复来自 coefuqin | 1 |
多卡部署 QWQ Q8 是否可行 PalWorld • 41 天前 • 最后回复来自 coefuqin | 3 |
![]() |
intel 显卡跑 Qwen3-14B-GGUF:Q8_0 abc0123xyz • 47 天前 • 最后回复来自 coefuqin | 6 |
![]() |
目前性价比最高的跑本地大模型显卡是? lemonTreeTop • 46 天前 • 最后回复来自 CoffeeY | 17 |
![]() |
学习大模型的显卡怎么选型 cuteshell • 54 天前 • 最后回复来自 coefuqin | 30 |
![]() |
求本地部署的 AI 推荐~ WessonC • 55 天前 • 最后回复来自 happybabys | 11 |
![]() |
本地部署视觉大模型,用于 OCR 中文文献+翻译,最好的模型是什么?
villivateur PRO |
21 |
![]() |
mac studio 跑大模型也就那样啊 guoguobaba • 69 天前 • 最后回复来自 fredweili | 26 |
本地 vllm 部署 Qwen2.5-7B-Instruct 在 stream 模式下 tool_calls 参数 JSON 字符串未正常闭合 BenchWidth • 72 天前 • 最后回复来自 BenchWidth | 2 |
![]() |
有没有能 mac 上直接跑的多语言翻译 LLM? idblife • 57 天前 • 最后回复来自 mili100 | 4 |
英语文本音频按句自动对齐的有推荐的吗? afkool • 80 天前 • 最后回复来自 barnetime | 8 |
![]() |
llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 coefuqin • 97 天前 • 最后回复来自 coefuqin | 4 |
本地 llm client kid1412621 • 100 天前 • 最后回复来自 kid1412621 | 5 |