做萌翻翻译的时候,想用来本地部署做语言检测,AI 翻译和 AI 词典都可能用到,传统的库都不够准确,如果是多语言的话。
![]() |
1
chiaf 11 小时 27 分钟前 via iPhone
官方说 16G 的 Mac 就能跑。我自己的 64G 跑起来 毫无压力。
做个参考 |
4
YsHaNg 11 小时 8 分钟前 via iPhone
不如 qwen3 30b
|
9
bearqq 9 小时 42 分钟前
24g 内存 8845HS 集显跑 14.17 token/s 。
我还是更喜欢用 qwen3-32b ,显卡跑。 |
10
katsusan 9 小时 40 分钟前
16G 能跑的前提是需要英伟达 50 系 blackwell 的 FP4 ,其它平台应该要更多
|
![]() |
15
Pteromyini 9 小时 3 分钟前
翻译最好还是用字节专门的 seed 或者用翻译数据集微调一个小规模的模型。小规模的通用模型包括 gpt-oss 实在不太行,激活参数本身也太小了,幻觉难免。
|
16
tomclancy 8 小时 59 分钟前
我是 9900x 3090 ,思考的时候 GPU 直接满负荷狂转,思考完直接安静了
|
![]() |
17
totty OP @Pteromyini OKK
|
![]() |
19
kennylam777 8 小时 32 分钟前
@katsusan 不用, 我試過用 3090 + Llama.cpp 能直接跑 FP4 的 GGUF, 速度也不錯, 100tps
而 5090 可以滿血跑 context 128k, 160tps 以上 |