下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

--framework

功能说明

原始网络模型框架类型。

关联参数

无。

参数取值

参数值:

  • 0:Caffe
  • 1:MindSpore
  • 3:TensorFlow
  • 5:ONNX

参数值约束:

  • --mode为1时,该参数可选,可以指定Caffe、TensorFlow、ONNX原始模型转成json,不指定时默认为离线模型转json,如果指定时需要保证--om模型和--framework类型对应一致,例如:
    --mode=1 --framework=0 --om=$HOME/module/resnet50.prototxt
    --mode=1 --framework=3 --om=$HOME/module/resnet50_tensorflow*.pb
    --mode=1 --framework=5 --om =$HOME/module/resnet50.onnx
  • --mode为0或3时,该参数必选,可以指定Caffe、TensorFlow、MindSpore或ONNX。
  • 当取值为0时,即为Caffe框架网络模型,模型包括后缀为prototxt的模型文件和后缀为caffemodel的权重文件,并且此两个文件的op name和op type必须保持名称一致(包括大小写)。
  • 当取值为3时,即为TensorFlow框架网络模型,只支持FrozenGraphDef格式,即尾缀为pb的模型文件,pb文件采用protobuf格式存储,网络模型和权值数据都储存在同一个文件中。
  • 当取值为5时,即为ONNX格式网络模型,仅支持ai.onnx算子域中opset v11版本的算子,用户也可以将其他opset版本的算子(比如opset v9),通过PyTorch转换成opset v11版本的ONNX算子;而PyTorch框架的pth模型需要转化为ONNX格式的模型,才能进行模型转换。
  • 当取值为1时,即为MindSpore框架网络模型时,请务必查看如下限制:
    • 模型转换时,仅支持后缀为*.air的模型文件;
    • --mode只支持配置为0;
    • --input_format只支持配置为NCHW,配置其它值无效,但模型转换成功;
    • 在MindSpore框架下,使用--out_nodes--is_output_adjust_hw_layout--input_fp16_nodes--is_input_adjust_hw_layout--op_name_map参数不生效,但模型转换成功;
    • 当模型大小超过2G时,在MindSpore框架中保存模型时会同时生成*.air文件、weight文件夹及其中的权重文件,在模型转换时,需要将weight文件夹与*.air文件存放在同级目录下,否则模型转换报错。

推荐配置及收益

无。

示例

  • Caffe框架:
    --mode=0 --framework=0 --model=$HOME/module/resnet50.prototxt --weight=$HOME/module/resnet50.caffemodel  --output=$HOME/module/out/caffe_resnet50 --soc_version=<soc_version>   
  • MindSpore框架:
    --mode=0 --framework=1 --model=$HOME/module/ResNet50.air --output=$HOME/module/out/ResNet50_mindspore --soc_version=<soc_version> 
  • TensorFlow框架:
    --mode=0 --framework=3 --model=$HOME/module/resnet50_tensorflow*.pb --output=$HOME/module/out/tf_resnet50 --soc_version=<soc_version>  
  • ONNX网络模型:
    --mode=0 --framework=5 --model=$HOME/module/resnet50.onnx --output=$HOME/module/out/onnx_resnet50 --soc_version=<soc_version>  

支持的芯片型号

Atlas 200/500 A2推理产品

依赖约束

无。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词