V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 165 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  
ttut 本地模型如何优化"大"文件?
ttut  •  195 天前  •  最后回复来自 zachariahss
1
ychen997 推荐一个最近很喜欢的自部署书签管理 Hoarder
ychen997  •  197 天前  •  最后回复来自 mooyo
1
Jaie mac 有什么方案本地跑 ai 字幕
Jaie  •  196 天前  •  最后回复来自 qbmiller
9
kevan 求助,我笔记本的 4060 跑 语言模型很困难吗?
kevan  •  235 天前  •  最后回复来自 chronos
1
songray 本地跑大模型代码助手还挺好用
songray  •  255 天前  •  最后回复来自 tabc2tgacd
6
ChipWat mac mini 24g 大模型推理怎么样
ChipWat  •  296 天前  •  最后回复来自 xing7673
27
ddvswgg 关于在本地部署开源模型的一些问题请教
ddvswgg  •  297 天前  •  最后回复来自 CynicalRose
9
Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
Vitta  •  297 天前  •  最后回复来自 Vitta
6
CNYoki ollama 本地模型 GPU 跑不满
CNYoki  •  317 天前  •  最后回复来自 clemente
12
1  2  3  4  5  6  7  8  9  
第 101 到 120 / 共 165 个主题
163 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1314 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 17:34 · PVG 01:34 · LAX 10:34 · JFK 13:34
Developed with CodeLauncher
♥ Do have faith in what you're doing.