V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
drymonfidelia
V2EX  ›  程序员

现在 8GB 显存 4070 笔记本能训练 AI 画图 LoRA 模型吗?效果怎么样,有没人了解的?我看有的模型说 6GB 显存就能玩

  •  
  •   drymonfidelia · 7 小时 54 分钟前 · 717 次点击
    10 条回复    2024-11-07 08:54:44 +08:00
    drymonfidelia
        1
    drymonfidelia  
    OP
       7 小时 43 分钟前
    另外还想问下爆显存是会对生成图片质量造成影响还是会直接出不了图?
    LanhuaMa
        2
    LanhuaMa  
       7 小时 35 分钟前
    8GB 训练怎么样我不知道,但是跑图基本是不够的,分辨率基本不可能超过 720p 而且插件一多就容易爆。6GB 能玩是扯蛋,除非你喜欢 pixel art 。爆显存会直接报错不出图
    winson030
        3
    winson030  
       7 小时 32 分钟前
    不建议笔记本干这活,同样价格要么主机要么租 GPU 。
    Chris008
        4
    Chris008  
       4 小时 1 分钟前
    现在 1024 分辨率以上的训练没有 24GB 显存是根本折腾不起来的。512 分辨率早就淘汰也没有花时间训练的必要。
    Chris008
        5
    Chris008  
       3 小时 59 分钟前
    出图看 UI 优化的不同,6-8G 都是可以出图的,就是慢点。实测 8GB 在 ComfyUI 可以跑。
    disorientatefree
        6
    disorientatefree  
       3 小时 25 分钟前
    训练不要想,出图是够玩玩的,但是笔记本这配置批量做起来也不现实

    ---

    除非你玩像素图当我没说
    hafuhafu
        7
    hafuhafu  
       1 小时 13 分钟前
    8G 训练 LoRa 够了。我之前就用 3070Ti Laptop 8G 弄了几个自己的 LoRa 玩,更低都行。
    出图的话,小显存也能玩,但是效果要好点倒是对显存要求比较高,不然加上插件什么的,只能出小分辨率的图。
    HeyWeGo
        8
    HeyWeGo  
       1 小时 1 分钟前
    如果想出 1920x1080 的图,推荐多少显存的卡呢? 4090 ok 吗?
    chesha1
        9
    chesha1  
       34 分钟前
    @HeyWeGo #8 你要是用 web ui 那种整合包,会包括很多节约显存的工具,4090 24G 应该够了,如果用裸 diffusers ,才会不够
    tikebosi6787782
        10
    tikebosi6787782  
       31 分钟前 via Android
    还是需要 12
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5531 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 01:25 · PVG 09:25 · LAX 17:25 · JFK 20:25
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.