下载
中文
注册
OpenCLIP-PyTorch

概述

简述

open_clip是由OpenAI开源的文图匹配预训练模型,通过在LAION-400M、LAION-2B等大规模文图数据上进行自监督预训练,使模型具备强大的跨模态能力,凭借此能力,open_clip在文图检索、问答等多种下游任务中取得惊人效果。

  • 参考实现:

    url=https://github.com/mlfoundations/open_clip
    commit_id=3b081484c360569179e270016b5549b7686d42ab
  • 适配昇腾 AI 处理器的实现:

    url=https://gitee.com/ascend/ModelZoo-PyTorch.git
    code_path=PyTorch/built-in/others

准备训练环境

准备环境

  • 当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

    表 1 版本支持表

    Torch_Version 三方库依赖版本
    PyTorch 1.11 -
    PyTorch 2.1 -
  • 环境准备指导。

    请参考《Pytorch框架训练环境准备》。

  • 安装依赖。

    在模型源码包根目录下执行命令,安装模型需要的依赖。

    pip install -r requirements.txt
    python3 -m pip install -e .

准备预训练模型与词表

  • 在官网下载CLIP-ViT-B-32-laion2B-s34B-b79K预训练模型(只需微调任务下载)
  • 下载bpe_simple_vocab_16e6.txt.gz词表文件,并放在src/open_clip路径下

预训练数据集

  1. 根据官方仓README中提供的链接下载webdataset格式的LAION数据集,数据集目录结构如下所示。

    ├── LAION
       ├──00000.tar
       ├──00001.tar              
       ├──00002.tar
       ├──00003.tar 
       ......

微调数据集

  1. 获取数据集flickr30k。

  2. 使用tools/flickr30k_handle.py切分出训练集与测试集。将flickr30k_handle.py拷贝至数据集目录下并执行,生成flickr30k_test.csv与flickr30k_train.csv

    数据集目录结构参考如下所示。

    ├── flickr30k
       ├──flickr30k-images   
       ├──flickr30k_test.csv                  
       ├──flickr30k_train.csv     

    说明: 该数据集的训练过程脚本只作为一种参考示例。

开始训练

预训练任务

  1. 进入解压后的源码包根目录。

    cd /${模型文件夹名称}
  2. 运行训练脚本。

    该模型支持单机单卡训练和单机8卡训练。

    • 单机单卡训练

      启动单卡训练。

      bash test/train_full_1p_pretrain.sh --train_data="/UserPath/LAION/{00000..00499}.tar" --train_num_samples=2000000 # 单卡训练
      
      bash test/train_performance_1p_pretrain.sh --train_data="/UserPath/LAION/{00000..00499}.tar" --train_num_samples=2000000 # 单卡性能
    • 单机8卡训练

      启动8卡训练

      bash test/train_full_8p_pretrain.sh --train_data="/UserPath/LAION/{00000..00499}.tar" --train_num_samples=2000000 # 单机8卡训练
      
      bash test/train_performance_8p_pretrain.sh --train_data="/UserPath/LAION/{00000..00499}.tar" --train_num_samples=2000000 # 单机8卡性能

    模型训练脚本参数说明如下。

    公共参数:
    --train_data                             //训练数据路径,{}中的文件数量可自行指定
    --train_num_samples                      //样本数量,需要根据train_data中的数据集数量自行指定,数量大致一致即可,无需精确

    训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。

微调任务

  1. 进入解压后的源码包根目录。

    cd /${模型文件夹名称}
  2. 运行训练脚本。

    该模型支持单机单卡训练和单机8卡训练。

    • 单机单卡训练

      启动单卡训练。

      bash test/train_full_1p.sh --data_path=flickr30k数据路径 --pretrain_model=预训练模型路径       # 单卡训练
      
      bash test/train_performance_1p.sh --data_path=flickr30k数据路径 --pretrain_model=预训练模型路径       # 单卡性能
    • 单机8卡训练

      启动8卡训练。

      bash test/train_full_8p.sh --data_path=flickr30k数据路径 --pretrain_model=预训练模型路径       # 8卡训练
      
      bash test/train_performance_8p.sh --data_path=flickr30k数据路径 --pretrain_model=预训练模型路径       # 8卡性能

    --data_path参数填写数据集路径,需写到数据集的一级目录。

    模型训练脚本参数说明如下。

    公共参数:
    --device_id                             //训练卡id指定
    --data_path                             //数据路径
    --pretrain_model                        //预训练模型路径

    训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。

训练结果展示

表 2 预训练任务结果展示表

NAME 精度 FPS Epochs precision batch_size
8p-竞品A - 7816 10 amp 2560
8p-NPU 相对Loss误差<2% 5904 10 amp 2560

表 3 微调任务结果展示表

NAME image_to_text_R@5 FPS Epochs precision batch_size
1p-NPU - 563 2 amp 128
1p-竞品V - 544 2 amp 128
8p-NPU 0.777 3342 20 amp 1024
8p-竞品V 0.779 2883 20 amp 1024

版本说明

变更

2023.05.16:首次发布。

FAQ

无。

公网地址说明

代码涉及公网地址参考 ./public_address_statement.md

使用模型资源和服务前,请您仔细阅读并理解透彻 《昇腾深度学习模型许可协议 3.0》