V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  GrayXu  ›  全部回复第 4 页 / 共 41 页
回复总数  804
1  2  3  4  5  6  7  8  9  10 ... 41  
156 天前
回复了 xingcy 创建的主题 程序员 Mac 有哪些无线鼠标可以平替 MX Master 3s ?
@52acca #34 新的有,金属的电磁滚轮都可以。
156 天前
回复了 xingcy 创建的主题 程序员 Mac 有哪些无线鼠标可以平替 MX Master 3s ?
感觉 master 的最大卖点还是电磁无极滚轮。其他竞品的无极滚轮都差点意思

不然其他选个喜欢的就行了,自定义功能也可以 autohotkey 完备地替代。
157 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@zqqian #15 分割?感觉大家分割方案现在都差不多吧。还是等等 GraphRAG 吧
完美,看完舒服了
都博客了,直接自己维护个 rss list 吧,减少噪声
162 天前
回复了 a7851578 创建的主题 信息安全 github 可以访问已删除 fork 信息
@cexll #1 你没改动哪来的新 commit hash 。再说没改动的话,也不存在需要保护的信息
试了一圈,国内地区大部分都是不可用的
这个还行 1 毛一条,但跑不跑路就不知道了
aff 链接如下
http://h5.yezi66.net:90/invite/1304063
164 天前
回复了 289396212 创建的主题 程序员 想买个 vr 头显,哪款性价比高呀?
如果需求只是 steam 串流,有啥推荐吗
164 天前
回复了 CNYoki 创建的主题 Local LLM ollama 本地模型 GPU 跑不满
@CNYoki #2 就是后端问题,ollama 是依赖 llama.cpp 的吧,llama.cpp 只能模型并行,不能提升 token 速度。用 vllm 。
169 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@zqqian #13
FastGPT ,感觉是满足功能需求的最轻的选择了。问题的话,还是存在一些小 bug ,然后看上去他们社区版维护的比较随意。
@wanwaneryide #22 +1 ,那么多大水管镜像站
猫扇猫扇猫扇 还是猫扇
@kangfenmao #41 感觉做 chatbot 前端产品已经很红海了,这种桌面端应该是和 chatall 一个生态位。chatall 现在还不能自定义 endpoint ,不能图片 langchain 等交互。加油
印象类似的产品不少吧,感觉速度都感人
173 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@wm5d8b #11 12G 算上量化只能部署个 9B 的模型吧。只能说离“能用”还有很大距离
174 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 你可以关注下 siliconflow ,最近上了 embedding ,后面会上 rerank 。
174 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 有的是开源的,有的不是
174 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@lixen9 #3 谢谢 试了一圈 fastgpt 确实是最好上手的。看了下小规模使用下,开源版本没啥问题,就是配置系统比较麻烦 XD
174 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@mumbler #1 谢谢,这个方案看上去限制蛮多的,付费了也只有 8b 的模型。我们已经有 embedding, rerank, chat 的完整 api 服务了。
1  2  3  4  5  6  7  8  9  10 ... 41  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   953 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 31ms · UTC 21:52 · PVG 05:52 · LAX 13:52 · JFK 16:52
Developed with CodeLauncher
♥ Do have faith in what you're doing.