文档
注册

快速入门

样例说明

本章节以开源项目紫东.太初(OPT)适配下游任务为例,主要展示如何使用微调工具包,快速拉起模型微调、评估、推理任务。

准备环境

  1. 获取预训练模型代码。

    从官网下载紫东.太初(OPT)模型代码:

    git clone https://gitee.com/mindspore/omni-perception-pretrainer.git -b adapt_tk
  2. 获取预训练模型权重。

    从官网下载紫东.太初(OPT)模型权重至“{opt模型代码路径}/pretrained_model/”路径,下载链接

  3. 准备下游任务数据集。

    参考紫东.太初(OPT)模型,准备下游任务所需的训练、测试和推理数据集,放在“{opt模型代码路径}/dataset/”路径。

  4. (可选)准备模型配置文件。

    模型配置文件主要用于自定义超参数(Hyperparameter)以及冻结部分网络,如果配置该文件,对应参数值以该文件为准;否则,使用启动脚本中的默认值。具体配置规则可参考模型配置文件适配(可选)

模型微调

使用微调工具包,执行如下命令进行模型微调:
tk finetune
           --boot_file_path {opt模型代码路径}/code/src/scripts/train_caption.py # 微调任务启动脚本
           --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录
           --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等
           --pretrained_model_path {opt模型代码路径}/pretrained_model/ # 可选参数,预训练模型
           --model_config_path {opt模型代码路径}/code/model_configs/model_config_finetune.yaml # 可选参数,模型配置文件
  • 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
  • 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。
  • 文件路径均为本地绝对路径。
  • 文件/文件夹读写权限最大可设置为同组可读可执行,其他用户无访问权限。

模型评估

使用微调工具包,执行如下命令进行模型评估:

tk evaluate
           --boot_file_path {opt模型代码路径}/code/src/scripts/test_caption.py # 评估任务启动脚本
           --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录
           --ckpt_path {opt模型代码路径}/pretrained_model/ # 评估所需的ckpt文件路径
           --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等
           --model_config_path {opt模型代码路径}/code/model_configs/model_config_evaluate.yaml # 可选参数,模型配置文件
  • 文件路径均为本地绝对路径。
  • 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
  • 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。

模型推理

使用微调工具包,执行如下命令进行模型推理:

tk infer
        --boot_file_path {opt模型代码路径}/code/src/scripts/inference_caption.py # 推理任务启动脚本
        --data_path {opt模型代码路径}/dataset/data/ # 数据集路径根目录
        --ckpt_path {opt模型代码路径}/pretrained_model/ # 推理所需的ckpt文件路径
        --output_path {opt模型代码路径}/output/ # 指定结果输出路径,存放需要落盘的文件,如ckpt、自定义输出等
        --model_config_path {opt模型代码路径}/code/model_configs/model_config_infer.yaml # 可选参数,模型配置文件
  • 文件路径均为本地绝对路径。
  • 落盘结果可在指定输出路径“{opt模型代码路径}/output/TK_UUID/”下查看。
  • 任务运行日志可在“$HOME/.cache/Huawei/mxTuningKit/log”下查看。
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词