V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  vpsvps  ›  全部回复第 5 页 / 共 11 页
回复总数  212
1  2  3  4  5  6  7  8  9  10 ... 11  
191 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
@NamelessRain
FP16 精度的吗? 1.3T 的版本 没见过搭建成功的?
191 天前
回复了 momomoi 创建的主题 MacBook 买了个 14 寸 m4pro 48+512
16 寸用惯了换 14 觉得习惯吗
191 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
去 B 站搜了下
发现需要上百万的硬件设备才行的
猜一下内心想法:
认识 2 年了,还以为你有钱,搞了这么久发现你存款才这么点,浪费老娘的青春。
202 天前
回复了 BlackHole1 创建的主题 分享创造 一款全新的工作流 IDE
分子子
魔兽世界
https://www.bilibili.com/video/BV19b4y1p717

很多人不信 oled 会造成眼睛散光
可以看看这个视频里收集了很多用户反馈
se4 也是 oled 瞎眼屏
真是服了
我也发现京东上很多非自营的假店铺,特别是百亿补贴里面的
222 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
@uncat 谢谢 我试试
222 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
@uncat 谢谢回复,是直接 ollama run deepseek-r1:671b 这个就行吗?这个简单些。huginnface 上的版本还得合并,比较麻烦,您说的是指用 unsloth/DeepSeek-R1-GGUF 这个模型文件吗
222 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
@snowkylin #6 👍,这种方式是不是不能直接使用 ollama run deepseek-r1:671b 从 ollama 上下载,404G 的,而需要在 huginnface 上下载?

Download the model files (.gguf) from HuggingFace (better with a downloader, I use XDM), then merge the seperated files into one
222 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
@snowkylin #4 谢谢回复,用 ollama 就可以吧,显存用完就会调用内存,
比如 我的服务器有 8 块 4090 ,内存 640G ,能跑得动 671b 404GB 这个,就是速度慢点是吧?
222 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
请问 1.73-bit 量化版( 158GB 大小的模型)
一个 4090 24G 加上 160G 内存
可以跑起来吗?
不是需要 7 块 4090 吗?
231 天前
回复了 Czzzzzzzzzzr 创建的主题 买买买 今年买的最值的电子产品是什么
Mac mini m4
@yzqn 细说下平时如何相处之类的,谢谢
居然设置后门!
真服了

点开已安装套件页面
进入软件界面
看到发布者是矿神 XXX 的
我都把卸载了
谢谢提醒!
已卸载全部群晖上的所有矿神源提供的软件!
237 天前
回复了 louisliu813 创建的主题 Apple 2025 了,大家怎么在 iPad 远程 macbook
@xinmans windows App ( remote desktop ) 可以远程 Mac ?
1  2  3  4  5  6  7  8  9  10 ... 11  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1105 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 18:16 · PVG 02:16 · LAX 11:16 · JFK 14:16
Developed with CodeLauncher
♥ Do have faith in what you're doing.