V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  CatCode  ›  全部回复第 5 页 / 共 27 页
回复总数  535
1  2  3  4  5  6  7  8  9  10 ... 27  
2024-05-07 10:46:22 +08:00
回复了 lekai63 创建的主题 问与答 有哪些是你认为小学生应该了解的信息技术历史
最重要的是:要有整理文件的习惯,把不同的文件按照具体的需求分类放到不同的目录下
2024-05-06 20:26:11 +08:00
回复了 CatCode 创建的主题 汽车 不懂车,怎么学习?
感谢楼上各位 V 友的解答
2024-05-05 22:51:09 +08:00
回复了 nidongpinyinme 创建的主题 硬件 预算一万五攒个深度学习的主机,有好哥哥来看看配置吗
@nidongpinyinme JD 显卡溢价太高,除非你能抢到原价公版卡
显卡就去淘宝找找呗
2024-05-05 22:27:17 +08:00
回复了 nidongpinyinme 创建的主题 硬件 预算一万五攒个深度学习的主机,有好哥哥来看看配置吗
@nidongpinyinme 别去 JD 买显卡 然后看看板 U 套 应该问题不大
2024-05-05 21:59:57 +08:00
回复了 nidongpinyinme 创建的主题 硬件 预算一万五攒个深度学习的主机,有好哥哥来看看配置吗
朋友前段时间配的,供参考。
14700KF 盒装、微星 Z790 A MAX 主板、瓦尔基里 280 水冷、佰维 6400MHz 32G ( 16G*2 ) DDR5 内存、4080 Super 魔鹰显卡、振华 850W ATX3.0 电源
固态、机箱自己选吧,还额外装了 4 把机箱风扇
2024-03-31 09:39:04 +08:00
回复了 James369 创建的主题 问与答 为了眼睛,有什么软件可以口读公众号文章的?
edge 浏览器打卡,右键大声朗读
2024-03-28 16:25:13 +08:00
回复了 CatCode 创建的主题 Local LLM Air M3 24G 能不能跑不量化的 7B 本地大模型推理?
@WuSiYu 得看数据类型吧。比如我曾在 20 系显卡上跑 7B 模型,发现 fp16 非量化比 int8 量化的快至少一倍,因为 20 系并没有原生支持 int8 ,而原生支持了 fp16 。
2024-03-28 13:08:08 +08:00
回复了 Lucoie 创建的主题 问与答 iPhone 怎么把粘贴板发送到 Windows 电脑
2024-03-25 19:50:15 +08:00
回复了 imes 创建的主题 微信 微信会检查压缩包内文件,并自动退出
@body007 不好意思,是我看错了。 刚刚去确认了一下,7z 格式才能加密文件名
2024-03-25 14:38:12 +08:00
回复了 imes 创建的主题 微信 微信会检查压缩包内文件,并自动退出
@body007 普通 zip 也可以选择“加密文件名”
2024-03-21 12:12:51 +08:00
回复了 weijancc 创建的主题 程序员 时至今日, WSL 仍然难用
"Windows 是最好的 Linux 发行版"你居然还真信了
那我说"php 是最好的语言"
2024-03-16 08:36:35 +08:00
回复了 lk960511 创建的主题 问与答 如何训练出自己的大语言模型?
@zhilincom 搭建和训练不是一回事 甚至微调和训练都不是一回事

@stinkytofu 不说显卡,训练的数据哪儿来都是问题
17.88w
2024-03-11 10:44:54 +08:00
回复了 garywill 创建的主题 Linux 使用 Ubuntu Linux Live CD 操作导致硬盘分区丢失
@busier chkdsk 速度特别慢,但 explorer 里面右键属性里的检查就很快 不知道有什么区别
2024-03-07 11:39:10 +08:00
回复了 haikea 创建的主题 Apple 极限 2 选 1, MacBook Air M3 和 ThinkPad X1 Carbon AI 2024 选哪个
@twl007 这评测里的 6 小时续航,跟 macbook 怎么比啊
@Orenoid 应该是量化过的。
7000000000 个 bf16 值,紧密排列,就要 13 GiBytes 空间。浮点数数组用通用压缩算法并不好压缩。
2024-02-23 14:49:04 +08:00
回复了 Jinnrry 创建的主题 Local LLM Google Gemma 开源没人讨论下吗?
7B 模型( bf16 )不量化的话,16G 显存不够。
1  2  3  4  5  6  7  8  9  10 ... 27  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5387 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 07:25 · PVG 15:25 · LAX 00:25 · JFK 03:25
Developed with CodeLauncher
♥ Do have faith in what you're doing.