QDQ(Quantize and DeQuantize)格式模型,比如从Tensorflow转换或从PyTorch导出的量化感知训练(QAT)模型,在ONNX Runtime1.8.0及以上的CPU版本环境下推理,出现类似下图的ONNXRuntimeError报错。(QDQ格式模型具体介绍请参见Link)
ONNX Runtime为了提高性能,提供了多种图优化方式,默认情况下,启用所有优化。在执行优化过程中,模型和ONNX Runtime版本间存在不兼容问题,导致上述报错。
import onnxruntime as ort import amct_onnx as amct amct.AMCT_SO.graph_optimization_level = ort.GraphOptimizationLevel.ORT_DISABLE_ALL ort_session = ort.InferenceSession('model.onnx', amct.AMCT_SO) ...