快速入门
准备环境
- 获取预训练模型代码。
从官网下载紫东.太初(OPT)模型代码:
git clone https://gitee.com/mindspore/omni-perception-pretrainer.git -b adapt_tk
- 获取预训练模型权重。
- 准备下游任务数据集。
参考紫东.太初(OPT)模型,准备下游任务所需的训练、测试和推理数据集,放在“{opt模型代码路径}/dataset/”路径。
- (可选)准备模型配置文件。
模型配置文件主要用于自定义超参数(Hyperparameter)以及冻结部分网络,如果配置该文件,对应参数值以该文件为准;否则,使用启动脚本中的默认值。具体配置规则可参考模型配置文件适配(可选)。
模型微调
使用微调工具包,执行如下命令进行模型微调:
tk finetune --boot_file_path {opt模型代码路径}/code/src/scripts/train_caption.py # 微调任务启动脚本 --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录 --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等 --pretrained_model_path {opt模型代码路径}/pretrained_model/ # 可选参数,预训练模型 --model_config_path {opt模型代码路径}/code/model_configs/model_config_finetune.yaml # 可选参数,模型配置文件
- 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
- 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。
- 文件路径均为本地绝对路径。
- 文件/文件夹读写权限最大可设置为同组可读可执行,其他用户无访问权限。
模型评估
使用微调工具包,执行如下命令进行模型评估:
tk evaluate --boot_file_path {opt模型代码路径}/code/src/scripts/test_caption.py # 评估任务启动脚本 --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录 --ckpt_path {opt模型代码路径}/pretrained_model/ # 评估所需的ckpt文件路径 --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等 --model_config_path {opt模型代码路径}/code/model_configs/model_config_evaluate.yaml # 可选参数,模型配置文件
- 文件路径均为本地绝对路径。
- 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
- 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。
模型推理
使用微调工具包,执行如下命令进行模型推理:
tk infer --boot_file_path {opt模型代码路径}/code/src/scripts/inference_caption.py # 推理任务启动脚本 --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录 --ckpt_path {opt模型代码路径}/pretrained_model/ # 推理所需的ckpt文件路径 --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等 --model_config_path {opt模型代码路径}/code/model_configs/model_config_infer.yaml # 可选参数,模型配置文件
- 文件路径均为本地绝对路径。
- 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
- 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。