V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ttut
V2EX  ›  Local LLM

本地模型如何优化"大"文件?

  •  
  •   ttut · 18 天前 · 795 次点击
    本地装了个 ollama + openwebui,下了好几个模型( llama3.2-vision:11b 、deepseek-coder-v2:16b 、llama3.1:8b 等)。
    测试丢给他一个 5000 多行的 css 文件,让他优化后给我全部代码,然后就给我各种扯皮,只给我一部分代码(无法在此回答中全部展示优化后的代码)。
    是模型问题?还是本地硬件( N 卡 3090 )不行?怎么解决这种情况?
    我试过在线的 chatgpt 、deepseek 、阿里通义等都不能搞长文的
    1 条回复    2024-11-23 16:40:32 +08:00
    zachariahss
        1
    zachariahss  
       18 天前
    遇到过,貌似是说参数调优不行,prompt 约束不够,开源的本质上是基础模型,没有商业化的微调和加持是比不了人家商业化模型的.至于 ali 的话,有一个 qwen-long 的模型你试试呢?
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5568 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 18ms · UTC 02:39 · PVG 10:39 · LAX 18:39 · JFK 21:39
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.