
想自己本地跑大模型,学习大模型,做一些微调等操作,目前看到一款小主机在预算内, CPU AMD Ryzen Al Max+ 395,不知道这套配置是否适合用来学习大模型跑大模型,有没有懂的兄弟可以给点建议。 hmbb • 15 小时 43 分钟前 • 最后回复来自 shuimugan | 66 |
![]() |
大语言模型中规模和模型大小的关系? SSang • 10 小时 50 分钟前 • 最后回复来自 nlzy | 5 |
怎样部署 ai 大模型然后训练他 eedh • 1 天前 • 最后回复来自 2020diyige | 15 |
![]() |
有人实际部署过 GPT-OSS-20b 么? 需要什么配置能跑得比较流畅? totty • 3 天前 • 最后回复来自 totty | 30 |
批了 100 万预算让我负责搭建行业知识库大模型, 但是目前还没有思路 sodayo • 9 天前 • 最后回复来自 chairuosen | 27 |
![]() |
AI ollama 运行的 qwen3:8b 如何关闭思考模式? dunhanson • 10 天前 • 最后回复来自 lchynn | 7 |
![]() |
有没有好用的本地翻译模型? importmeta • 12 天前 • 最后回复来自 molezznet | 15 |
![]() |
大模型什么样的速度是靠谱的 guoguobaba • 19 天前 • 最后回复来自 oldlamp | 2 |
请问: 要部署本地 AI, 投喂 AI 知识库的话, 目前适合个人电脑的最佳方法是啥? Lucy2025 • 33 天前 • 最后回复来自 shuimugan | 14 |
有没有人尝试过用 ai 去整理自己的知识库 rocloong • 34 天前 • 最后回复来自 lezhou | 11 |
![]() |
使用 dify 编写智能体的时候, 如何让 LLM 节点能够强制输出结构化输出 Schema skyworker • 46 天前 • 最后回复来自 huangfuyingjian | 1 |
![]() |
目前哪个大模型适合本地部署用来纯翻译? Noby • 20 小时 14 分钟前 • 最后回复来自 SSang | 25 |
![]() |
Grok 4 发布 alanying • 51 天前 • 最后回复来自 MaybeRichard | 10 |
有人在本地跑模型吗? lihuashan • 57 天前 • 最后回复来自 lihuashan | 6 |
![]() |
个人电脑,适合跑哪个本地大模型? laijh • 20 小时 7 分钟前 • 最后回复来自 SSang | 23 |
我做了一个 Ollama JSONL 批量推理工具,除了 Ollama 还支持 Deepseek 等 OpenAI Style 兼容 API mili100 • 73 天前 • 最后回复来自 mili100 | 2 |
有个大模型相关的副业想法,大家帮忙看看有没有需求 buwenhe • 75 天前 • 最后回复来自 coefuqin | 5 |
![]() |
huggingface-cli hf_xet 插件经常报 dns error 是咋回事 guoguobaba • 82 天前 • 最后回复来自 coefuqin | 1 |
![]() |
目前性价比最高的跑本地大模型显卡是? lemonTreeTop • 21 天前 • 最后回复来自 goodboy95 | 18 |