在进行迁移后的训练网络dump数据前,您需要完成训练网络开发、编译和运行,确保具备可执行的训练工程。
详细介绍请参见《TensorFlow 2.6.5网络迁移和训练指南》。
import os ... def main(): ... os.environ['DUMP_GE_GRAPH'] = '2'
在训练过程中,计算图文件会保存在训练脚本所在目录中。
import npu_device # 在初始化的时候添加以下配置 npu_device.global_options().dump_config.enable_dump = True npu_device.global_options().dump_config.dump_path = "/home/HwHiAiUser/output" npu_device.global_options().dump_config.dump_step = "0|5|10" npu_device.global_options().dump_config.dump_mode = "all" npu_device.global_options().dump_config.dump_data = "stats" npu_device.global_options().dump_config.dump_layer = "nodename1 nodename2 nodename3"
参数名 |
描述 |
---|---|
dump_config.enable_dump |
是否开启dump功能。取值为:
|
dump_config.dump_path |
dump文件保存路径。enable_dump为True时,该参数必须配置。 该参数指定的目录需要在启动训练的环境上(容器或Host侧)提前创建且确保安装时配置的运行用户具有读写权限,支持配置绝对路径或相对路径(相对执行命令行时的当前路径)。 |
dump_config.dump_step |
指定采集哪些迭代的dump数据。默认值:None,表示所有迭代都会产生dump数据。 多个迭代用“|”分割,例如:0|5|10;也可以用"-"指定迭代范围,例如:0|3-5|10。 |
dump_config.dump_mode |
dump模式,用于指定dump算子输入还是输出数据。取值为:
|
dump_config.dump_data |
指定算子dump内容类型。取值为:
大规模训练场景下,通常dump数据量太大并且耗时长,可以先dump所有算子的统计数据,根据统计数据识别可能异常的算子,然后再指定dump异常算子的input或output数据。 |
dump_config.dump_layer |
指定需要dump的算子。取值为算子名,多个算子名之间使用空格分隔。 |
路径key |
说明 |
备注 |
---|---|---|
dump_path |
2中设置的dump_path路径(如果设置的是相对路径,则为拼接后的全路径)。 |
- |
time |
dump数据文件落盘的时间。 |
格式为:YYYYMMDDHHMMSS |
deviceid |
设备ID。 |
- |
model_name |
子图名称。 |
model_name层可能存在多个文件夹,dump数据取计算图名称对应目录下的数据。 如果model_name出现了“.”、“/”、“\”、空格时,转换为下划线表示。 |
model_id |
子图ID。 |
- |
data_index |
迭代数,用于保存对应迭代的dump数据。 |
如果指定了dump_step,则data_index和dump_step一致;如果不指定dump_step,则data_index序号从0开始计数,每dump一个迭代的数据,序号递增1。 |
执行训练脚本完成后会在训练脚本当前目录生成GE图文件,图文件可能会有多个。一般情况下,选取计算图文件方法:将TensorFlow模型保存为pb文件,然后查看该模型,选取其中一个计算类算子的名字作为关键字,找包含该关键字的计算图文件。计算图名称取计算图文件graph下的name字段值。
grep Iterator *_Build.txt
如上图所示,“ge_proto_00292_Build.txt”即为需要的计算图文件。
graph { name: "ge_default_20201209083353_71" op { name: "atomic_addr_clean0_71" type: "AtomicAddrClean" attr { key: "_fe_imply_type" value { i: 6 } }
文件命名各字段详细介绍请参见数据格式要求。