指定某层输出节点(算子)作为网络模型的输出或指定网络模型输出的名称。
如果不指定输出节点,则模型的输出默认为最后一层的算子信息,如果指定,则以指定的为准。某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,既可以在模型转换时通过该参数指定输出某层算子,模型转换后,在相应.om模型文件最后即可以看到指定输出算子的参数信息,如果通过.om模型文件无法查看,则可以将.om模型文件转换成json格式后查看。
当--framework取值为1,即为MindSpore框架网络模型时,设置本参数无效,但模型转换成功。
参数值:
指定的输出节点必须放在双引号中,节点中间使用英文分号分隔。node_name必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如node_name1:0,表示节点名称为node_name1的第1个输出。
指定的输出节点必须放在双引号中,节点中间使用英文分号分隔。topname必须是模型编译前的Caffe网络模型中layer的某个top名称;若几个layer有相同的topname,则以最后一个layer的topname为准。
指定的output的name必须放在双引号中,多个output的name中间使用英文分号分隔。output必须是网络模型的输出。
参数值约束:
无。
--out_nodes="node_name1:0;node_name1:1;node_name2:0"
--out_nodes="topname0;topname1;topname2"
--out_nodes="output1;output2;output3"
Atlas 200/300/500 推理产品
Atlas 推理系列产品(Ascend 310P处理器)
Atlas 训练系列产品
Atlas 200/500 A2推理产品
Atlas A2训练系列产品
无。