文档
注册
评分
提单
论坛
小AI

--output_type

功能说明

指定网络输出数据类型或指定某个输出节点的输出类型。

关联参数

若指定某个输出节点的输出类型,则需要和--out_nodes参数配合使用。

参数取值

参数值:
  • FP32:推荐分类网络、检测网络使用。
  • UINT8:图像超分辨率网络,推荐使用,推理性能更好。
  • FP16:推荐分类网络、检测网络使用。通常用于一个网络输出作为另一个网络输入场景。
  • INT8

参数值约束:

模型转换完毕,在对应的*.om模型文件中,数据类型以DT_FLOAT或DT_UINT8或DT_FLOAT16或DT_INT8值呈现。

若在模型转换时不指定网络具体输出数据类型,则以原始网络模型最后一层输出的算子数据类型为准;若指定了类型,则以该参数指定的类型为准,此时--is_output_adjust_hw_layout参数指定的类型不生效。

推荐配置及收益

无。

示例

  • 指定网络输出数据类型
    --output_type=FP32
  • 指定某个输出节点的输出数据类型

    例如:--output_type="node1:0:FP16;node2:0:FP32",表示node1节点第一个输出设置为FP16,node2第一个节点输出设置为FP32。指定的节点必须放在双引号中,节点中间使用英文分号分隔。

    该场景下,该参数需要与--out_nodes参数配合使用。
    --model=$HOME/module/resnet50_tensorflow*.pb --framework=3 --output=$HOME/module/out/tf_resnet50  --soc_version=<soc_version>  --output_type="conv1:0:FP16"  --out_nodes="conv1:0"

支持的型号

Atlas 200/300/500 推理产品

Atlas 推理系列产品

Atlas 训练系列产品

Atlas 200/500 A2推理产品

Atlas A2训练系列产品/Atlas 800I A2推理产品

依赖约束

无。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词