文档
注册
评分
提单
论坛
小AI

概览

本节给出命令行场景所使用的参数概览。

  • 如果通过amct_xxx calibration --help命令查询出的参数未解释在表1,则说明该参数预留或适用于其他芯片版本,用户无需关注。
  • 使用amct_xxx命令行进行量化时,命令有两种方式,用户根据实际情况进行选择:
    • amct_xxx calibration param1=value1 param2=value2 ...(value值前面不能有空格,否则会导致截断,param取的value值为空)
    • amct_xxx calibration param1 value1 param2 value2 ...

xxx请替换为具体框架名称:caffe、tensorflow、onnx

表1 参数概览

参数项

参数说明

使用框架/网络

使用场景

--help或--h

打印帮助信息。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:可选

--model

待量化网络的模型文件路径与文件名,格式为.prototxt。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:必填
  • QAT模型适配CANN模型:必填

--weights

待量化网络的权重文件路径与文件名,格式为.caffemodel。该参数仅适用于Caffe框架模型。

  • Caffe
  • 训练后量化:必填

--outputs

指定原始模型输出Tensor的名称。

  • TensorFlow
  • 训练后量化:必填
  • QAT模型适配CANN模型:必填

--save_path

量化后模型的存放路径。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:必填
  • QAT模型适配CANN模型:必填

--input_shape

指定模型输入数据的shape。

若未使用--evaluator参数,则该参数必填。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--batch_num

训练后量化推理阶段的batch数。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--calibration_config

训练后量化简易配置文件路径与文件名。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--data_dir

与模型匹配的bin格式数据集路径。

若未使用--evaluator参数,则该参数必填。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--data_types

输入数据的类型。

若未使用--evaluator参数,则该参数必填。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--evaluator

基于"Evaluator"基类并且包含evaluator评估器的python脚本。

该参数与--input_shape--data_dir--data_types不能同时使用。

  • Caffe
  • TensorFlow
  • ONNX
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--feature

模型压缩特性使能开关。

  • TensorFlow
  • 训练后量化:可选
  • QAT模型适配CANN模型:不适用

--gpu_id

指定使用GPU进行量化。

  • Caffe
  • 训练后量化:可选
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词