概述
简述
GRU(Gate Recurrent Unit)是循环神经网络(Recurrent Neural Network, RNN)的一种。 和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。
参考实现:
url=https://github.com/farizrahman4u/seq2seq commit_id=c37c67ffccc7578d03dd97100dffd99cc675c85d
适配昇腾 AI 处理器的实现:
url=https://gitee.com/ascend/ModelZoo-PyTorch.git code_path=PyTorch/built-in/nlp
准备训练环境
准备环境
当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。
表 1 版本支持表
Torch_Version 三方库依赖版本 PyTorch 1.5 - PyTorch 1.8 - 环境准备指导。
请参考《Pytorch框架训练环境准备》。
安装依赖。
在模型源码包根目录下执行命令,安装模型需要的依赖。
pip install -r requirements.txt
安装分词包,使用以下命令或登录对应网址下载分词包。
wget https://github.com/explosion/spacy-models/releases/download/en_core_web_sm-2.0.0/en_core_web_sm-2.0.0.tar.gz wget https://github.com/explosion/spacy-models/releases/download/de_core_news_sm-2.0.0/de_core_news_sm-2.0.0.tar.gz
解压并在分词包目录下,使用以下命令安装:
python3 setup.py install
安装torchtext。
pip install torchtext==0.6
准备数据集
获取数据集。
初次执行脚本
bash ./test/train_performance_1p.sh --data_path=数据集路径
时,会将torchtext中multi30k数据集下载到数据集路径
所对应文件目录下。以
--data_path=data
为例,初次运行后data/multi30k
文件目录如下。├── multi30k ├──test.de ├──test.en ├──train.de ├──train.en ├──val.de ├──val.en
说明: 该数据集的训练过程脚本只作为一种参考示例。
开始训练
训练模型
进入解压后的源码包根目录。
cd /${模型文件夹名称}
运行训练脚本。
该模型支持单机单卡训练和单机8卡训练。
单机单卡训练
启动单卡训练。
bash ./test/train_performance_1p.sh --data_path=/data/xxx/ # 单卡性能
单机8卡训练
启动8卡训练。
bash ./test/train_full_8p.sh --data_path=/data/xxx/ # 8卡精度 bash ./test/train_performance_8p.sh --data_path=/data/xxx/ # 8卡性能
--data_path参数填写数据集路径,需写到数据集的一级目录。
模型训练脚本参数说明如下。
公共参数: --data-dir //数据集路径 --addr //主机地址 --workers //加载数据进程数 --epochs //重复训练次数 --batch-size //训练批次大小 --amp //是否使用混合精度 --multiprocessing-distributed //是否使用多卡训练 --device-list '0,1,2,3,4,5,6,7' //多卡训练指定训练用卡
训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。
训练结果展示
表 2 训练结果展示表
NAME | Acc@1 | FPS | Epochs | AMP_Type | Torch_Version |
---|---|---|---|---|---|
1p-NPU | - | 1955.86 | 1 | O2 | 1.8 |
8p-NPU | 12.5727 | 13693.3 | 10 | O2 | 1.8 |
版本说明
变更
2023.02.23:更新readme,重新发布。
2021.08.30:首次发布。
FAQ
无。