xnx3 commited on
Commit
2455905
·
verified ·
1 Parent(s): 8a2b828

Update README_cn.md

Browse files
Files changed (1) hide show
  1. README_cn.md +1 -1
README_cn.md CHANGED
@@ -2,7 +2,7 @@
2
 
3
  # translate100
4
  translate100 是一个用于翻译任务的 seq-to-seq 架构、基于 Transformer 的神经机器翻译模型,由m2m100(12B)经过蒸馏(small100)及各种处理后,得到的完全适配 [translate.js](https://gitee.com/mail_osc/translate) 的一键部署应用。
5
- **它的翻译能力很一般,它最大的特点是在超低配置的终端(1核2G内存)运行使用、及做到适配全球主流的上百个语言。 **
6
  1. 在无GPU场景,对支持量化指令的CPU,会对Linear层进行int8量化,提高运行速度。
7
  2. 禁用梯度计算、关闭了自动求导引擎的其他功能,进一步提升性能并降低内存占用
8
  3. 混合精度加速 ,当检测到GPU时,动态选择FP16/FP32精度进行计算,在保持精度的同时减少显存使用并提高吞吐量。
 
2
 
3
  # translate100
4
  translate100 是一个用于翻译任务的 seq-to-seq 架构、基于 Transformer 的神经机器翻译模型,由m2m100(12B)经过蒸馏(small100)及各种处理后,得到的完全适配 [translate.js](https://gitee.com/mail_osc/translate) 的一键部署应用。
5
+ 它的翻译能力很一般,它最大的特点是在超低配置的终端(1核2G内存)运行使用、及做到适配全球主流的上百个语言。
6
  1. 在无GPU场景,对支持量化指令的CPU,会对Linear层进行int8量化,提高运行速度。
7
  2. 禁用梯度计算、关闭了自动求导引擎的其他功能,进一步提升性能并降低内存占用
8
  3. 混合精度加速 ,当检测到GPU时,动态选择FP16/FP32精度进行计算,在保持精度的同时减少显存使用并提高吞吐量。