文档
注册
评分
提单
论坛
小AI

动态BatchSize

本节介绍如何在模型构建时支持动态BatchSize功能。

功能介绍

BatchSize即每次模型推理处理的图片数,对于每次推理图片数量固定的场景,处理图片数由数据shape的N值决定;对于每次推理图片数量不固定的场景,则可以通过动态BatchSize功能来动态分配每次处理的图片数量。例如用户执行推理业务时需要每次处理2张、4张、8张图片,则可以在模型中配置档位信息2,4,8,申请了档位后,模型推理时会根据实际档位申请内存。

使用方法

  1. 在Data算子定义时,将数据shape的指定维度设置为-1:
    1
    2
    3
    4
    5
        auto shape_data = vector<int64_t>({ -1,1,28,28 });
        TensorDesc desc_data(ge::Shape(shape_data), FORMAT_ND, DT_FLOAT);
        auto data = op::Data("data");
        data.update_input_desc_data(desc_data);
        data.update_output_desc_out(desc_data);
    
  2. 模型编译时,在aclgrphBuildModel接口options中设置INPUT_SHAPE/INPUT_FORMAT信息,同时通过DYNAMIC_BATCH_SIZE指定每个档位值的大小。
    • INPUT_FORMAT必须设置并且和所有Data算子的format保持一致,且仅支持NCHW和NHWC,否则会导致模型编译失败。
    • INPUT_SHAPE可选设置。如果不设置,系统直接读取对应Data节点的shape信息,如果设置,以此处设置的为准,同时刷新对应Data节点的shape信息。
    1
    2
    3
    4
    5
    6
    7
    void PrepareOptions(std::map<AscendString, AscendString>& options) {
        options.insert({
            {ge::ir_option::INPUT_FORMAT, "NCHW"},
            {ge::ir_option::INPUT_SHAPE, "data:-1,1,28,28"}, //INPUT_SHAPE中的-1表示设置动态batch。
            {ge::ir_option::DYNAMIC_BATCH_SIZE, "2,4,8"}     // 设置N的档位
        });
    }
    

使用注意事项

  • 该功能不能和动态分辨率、动态维度同时使用。
  • 如果用户设置的档位数值过大或档位过多,可能会导致模型编译失败,此时建议用户减少档位或调低档位数值。
  • 若用户执行推理业务时,每次处理的图片数量不固定,则可以通过配置该参数来动态分配每次处理的图片数量。例如用户执行推理业务时需要每次处理2张、4张、8张图片,则可以配置为2,4,8,申请了档位后,模型推理时会根据实际档位申请内存。
  • 如果模型编译时通过该参数设置了动态batch,则使用应用工程进行模型推理时,在模型执行接口之前:
  • 如果用户设置了动态BatchSize,同时又通过INSERT_OP_FILE参数设置了动态AIPP功能:

    实际推理时,调用aclmdlSetInputAIPP接口设置动态AIPP相关参数值时,需确保batchSize要设置为最大Batch数。

  • 某些场景下,通过该参数设置动态BatchSize特性后,生成的离线模型网络结构会与固定BatchSize场景下的不同,推理性能可能存在差异。
  • 如果用户设置的档位数值过大或档位过多,在运行环境执行推理时,建议执行swapoff -a命令关闭swap交换区间作为内存的功能,防止出现由于内存不足,将swap交换空间作为内存继续调用,导致运行环境异常缓慢的情况。
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词