GalTransl-7B-v2.6项目介绍
GalTransl-7B-v2.6是一款由SakuraLLM社区推出的模型,该项目由sakuraumi与xd2333合作构建,专门为视觉小说的翻译任务进行优化。该模型拥有7亿参数,主要支持日文到简体中文的翻译(jp2zh-cn)。
模型特点
-
专为视觉小说优化:GalTransl-7B被设计用于视觉小说的翻译任务,尤其对其中的行内换行、控制符和ruby注音等符号的保留能力较优。
-
硬件和性能平衡:为了在高质量翻译和稳定性之间取得平衡,该模型可以在显存大于或等于6G的主流游戏显卡上运行,翻译整体质量优于claude3-haiku和GPT-3.5等大型模型。
-
工具优化适配:此模型专为GalTransl视觉小说翻译工具进行适配和优化,支持使用GPT字典(详细写法见此处)。
更新日志
-
24.10.04 v2.6:在2.5版本的基础上提高了稳定性。
-
24.09.30 v2.5:抑制了一些已知问题,并且改进了文风的细腻度。
-
24.08.08 v2.0:继续优化以改善翻译质量。
-
24.06.30 v1.5:优化了整体的文风。
-
24.05.30 v1.0:推出了初版。
已知问题
-
GPT字典目前不支持英文注释,同时不支持一词多译(即"a/b"的写法)。这些问题计划在后续版本中改善。
-
当需要对原文进行省略语素推理时,可能会出现事实错误或幻觉。
-
建议每次翻译7到10句话。
量化等级说明
表格概述了模型的量化等级及其影响:
量化等级 | 说明 |
---|---|
IQ4_XS | 小的质量损失,占用更小速度稍慢(推荐使用6G显存) |
Q4_K | 小的质量损失(推荐使用6G显存) |
Q5_K | 很小的质量损失(推荐使用6G/8G显存;6G显存可能需要调小窗口大小'-c') |
Q6_k | 细小的质量损失(推荐使用8G及以上显存) |
本地部署参考
有关如何本地部署模型的更多信息,可以参考sakura launcher GUI的GitHub页面。
请求方式
v2.5版本的模型兼容sakura 0.10的prompt,推荐设置温度为0.2;Top P为0.8;重复惩罚增加0.1。