coefuqin 最近的时间轴更新
coefuqin

coefuqin

V2EX 第 616381 号会员,加入于 2023-02-28 17:15:35 +08:00
今日活跃度排名 4003
根据 coefuqin 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
coefuqin 最近回复了
30 分钟前
回复了 song135711 创建的主题 Local LLM 帮忙看看这个 DIY 装机配置大模型入门怎样
思路都是错的,cpu 应该搞最便宜的 xeon 几十块搞定,然后买多 pci 主板,把资金都扑到显卡上。
23 小时 58 分钟前
回复了 feelapi 创建的主题 Local LLM ollama 支持的一些模型测试结果
主要是你显存太少了。
23 小时 58 分钟前
回复了 silypie 创建的主题 生活 男士一般多久理一次发比较合适呢?
4 个月,我享受飘逸的长发。
@jiejianshiwa 老弟,不要怂,就是刚。当年我是你这个年纪的时候在广州纵横披靡,怕个卵,年轻人就是冲就是闯。另外,个人经验是尽量不要给私人小老板干,有大团队尽量去大团队。因为大团队里的成本不是个人的,不会像小老板那样把钱花到刀刃上的精打细算。
老弟,北京 28 岁 6k ,还结婚了,你是我大哥。赶紧了背点八股文找下家啊。28 岁正当道,正是赚钱的时候,多面多谈,技术要多吹,工资要岗位所能给出的顶格。
中电金信?
2 天前
回复了 azev 创建的主题 问与答 大家用哪家大模型的 api?
@hkiJava int 4 24g vram 刚刚够跑,但是上下文和推理过程长点就要更多了。fp16 我还没试,估计要准备 96g vram 。
电费都够你们成本喝一壶了。
或者你把嵌入模型 改成 granite3.2-vision ,然后看看情况。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5461 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 15ms · UTC 08:16 · PVG 16:16 · LAX 01:16 · JFK 04:16
Developed with CodeLauncher
♥ Do have faith in what you're doing.