下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

--out_nodes

功能说明

指定某层输出节点(算子)作为网络模型的输出或指定网络模型输出的名称。

如果不指定输出节点,则模型的输出默认为最后一层的算子信息,如果指定,则以指定的为准。某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子,模型转换后,在相应.om模型文件最后即可以看到指定输出算子的参数信息,如果通过.om模型文件无法查看,则可以将.om模型文件转换成json格式后查看。

关联参数

--framework取值为1,即为MindSpore框架网络模型时,设置本参数无效,但模型转换成功。

参数取值

参数值:

  • 网络模型中的节点(node_name)名称

    指定的输出节点必须放在双引号中,节点中间使用英文分号分隔。node_name必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如node_name1:0,表示节点名称为node_name1的第1个输出。

  • 某层输出节点的topname(该场景仅支持Caffe网络模型)

    指定的输出节点必须放在双引号中,节点中间使用英文分号分隔。topname必须是模型编译前的Caffe网络模型中layer的某个top名称;若几个layer有相同的topname,则以最后一个layer的topname为准。

  • 指定网络模型输出的名称(output的name)(该场景仅支持ONNX网络模型)

    指定的output的name必须放在双引号中,多个output的name中间使用英文分号分隔。output必须是网络模型的输出。

参数值约束:

  1. 参数值中的三种方式,使用时只能取其一,不能同时存在。
  2. 若参数值取值为某层输出节点的topname,该种方式仅限于Caffe网络模型。
  3. 若参数值取值为网络模型输出的名称(output的name),该种方式仅限于ONNX网络模型。

推荐配置及收益

无。

示例

  • 参数值取网络模型中某个节点(node_name)的名称
    --out_nodes="node_name1:0;node_name1:1;node_name2:0"
  • 参数值取某层输出节点的topname
    --out_nodes="topname0;topname1;topname2"
  • 参数值取网络模型输出的名称(output的name)
    --out_nodes="output1;output2;output3"

支持的型号

Atlas 200/300/500 推理产品

Atlas 推理系列产品

Atlas 训练系列产品

Atlas 200/500 A2推理产品

Atlas A2训练系列产品/Atlas 800I A2推理产品

依赖约束

无。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词