V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
M9l7chlLGv
V2EX  ›  分享创造

ARPK - 让本地大模型帮你翻译,兼容 DeepLX API

  •  
  •   M9l7chlLGv · 81 天前 · 1614 次点击
    这是一个创建于 81 天前的主题,其中的信息可能已经有所发展或是发生改变。

    玩 SillyTavern 的时候突发奇想:能不能让模型自己翻译自己?

    看了下好像没人做,于是就写了: https://github.com/moeru-ai/arpk

    本地搭建好 Ollama,通过 node.js npx 运行 ARPK 服务端:

    ARPK_MODEL="llama3.1" npx arpk
    

    它通过 DeepLX 相同的端口和 API 提供服务,所以应该能兼容任何支持 DeepLX 的应用

    await fetch('http://127.0.0.1:1188/translate', {
      body: JSON.stringify({
        source_lang: 'JA',
        target_lang: 'ZH',
        text: '雨の季節が過ぎ 澄み渡る空を 眺めて独り想フ'
      }),
      method: 'POST'
    }).then(res => res.json())
    // {
    //   alternates: [],
    //   code: 200,
    //   data: '雨季过后,晴朗的天空下我独自遐思。',
    //   id: 1519129853500,
    //   method: 'ARPK',
    //   source_lang: 'JA',
    //   target_lang: 'ZH'
    // }
    

    Docker 镜像还没写,以后会有。

    5 条回复    2024-08-30 12:01:56 +08:00
    zagfai
        1
    zagfai  
       81 天前
    翻译效果有限吧
    M9l7chlLGv
        2
    M9l7chlLGv  
    OP
       81 天前
    @zagfai 有优化空间,可以更换模型或者自定义 prompt 以尝试得到更好的结果
    zagfai
        3
    zagfai  
       81 天前
    主要是本地,硬件有限
    M9l7chlLGv
        4
    M9l7chlLGv  
    OP
       81 天前
    @zagfai 这就没办法了,我也不想这个项目太复杂,所以只依赖了 ollama 的 js 库
    不需要本地翻译的话 DeepLX 会更方便
    unclemcz
        5
    unclemcz  
       81 天前 via Android   ❤️ 1
    @zagfai #3 本地模型可以试一下 qwen2:1.5b ,翻译效果和 qwen1. 5 比,有很大提升。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5374 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 07:19 · PVG 15:19 · LAX 23:19 · JFK 02:19
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.