子图/算子调优
本节介绍TensorFlow训练场景下,如何进行子图/算子调优,包括调优前须知、配置环境变量、调优命令、查看调优结果、性能验证。
调优前须知
- 请保证训练脚本在昇腾AI处理器上执行成功,功能和精度满足预期。
- 不建议用户绑定训练进程到指定的CPU,请使用系统默认的CPU调度策略。否则可能会影响调优效果。
- 为提高调优效率,希望用户尽量控制训练步数。一般情况下,通过一个step能完成一次完整的图执行过程,保证图中所有的算子都能遍历一遍完成调优即可。
- 目前仅支持静态算子,暂不支持动态算子。
- AOE不支持不同用户同时使用同一device进行调优。
- 调优前,请确保关闭Profiling功能,关闭内存静态分配方式(即设置static_memory_policy=0,示例为:custom_op.parameter_map["static_memory_policy"].i = 0),避免影响调优结果。关闭Profiling功能具体操作请参见《性能调优工具指南》。
- 不支持多P场景下的调优。
- 单P场景下的调优,请确保具备如下条件。
- 调优用户的家目录下磁盘可用空间>=20G。
- 可用内存>=训练模型需要的内存*TUNING_PARALLEL_NUM。其中TUNING_PARALLEL_NUM的说明请参考配置文件。
- 算子调优时Host CPU建议>= 训练脚本中的进程数 * (TE_PARALLEL_COMPILER + TUNING_PARALLEL_NUM + min(CPU的核数/2, 8) + 50)。其中TE_PARALLEL_COMPILER和TUNING_PARALLEL_NUM的说明请分别参考表1和配置文件。
- 子图调优时Host CPU建议>=训练脚本中的进程数 * ( 2 * TUNING_PARALLEL_NUM + TE_PARALLEL_COMPILER)。其中TE_PARALLEL_COMPILER和TUNING_PARALLEL_NUM的说明请分别参考表1和配置文件。
- Device核数>=模型中所有算子使用的最大核数。
- Device内存:和模型相关,和模型的内存复用相关。
配置环境变量
- CANN软件基础环境变量
CANN组合包提供进程级环境变量设置脚本,供用户在进程中引用,以自动完成环境变量设置。执行命令参考如下,以下示例均为root或非root用户默认安装路径,请以实际安装路径为准。
# 以root用户安装toolkit包 . /usr/local/Ascend/ascend-toolkit/set_env.sh # 以非root用户安装toolkit包 . ${HOME}/Ascend/ascend-toolkit/set_env.sh
- AOE工具依赖Python,以Python3.7.5为例,请以运行用户执行如下命令设置Python3.7.5的相关环境变量。
#用于设置python3.7.5库文件路径 export LD_LIBRARY_PATH=/usr/local/python3.7.5/lib:$LD_LIBRARY_PATH #如果用户环境存在多个python3版本,则指定使用python3.7.5版本 export PATH=/usr/local/python3.7.5/bin:$PATH
Python3.7.5安装路径请根据实际情况进行替换,您也可以将以上命令写入~/.bashrc文件中,然后执行source ~/.bashrc命令使其立即生效。
- 配置调优模式:
# 1:子图调优,2:算子调优。 Atlas A2训练系列产品/Atlas 800I A2推理产品场景下,不支持子图调优。 export AOE_MODE=2
- 调优前也可参考如下示例配置其他环境变量,但为可选配置,相关说明请参考表1。
export ASCEND_DEVICE_ID=0 export TUNE_BANK_PATH=/home/HwHiAiUser/custom_tune_bank export TE_PARALLEL_COMPILER=8 export REPEAT_TUNE=False
- 用户可将设置环境变量的命令写入自定义脚本,方便后续执行。
- 除了通过环境变量方式指定调优模式,还可通过修改训练脚本相应参数指定调优模式,具体请参考通过修改训练脚本配置调优模式(TensorFlow 1.15),考虑到操作复杂度,建议通过设置环境变量方式指定调优模式。
执行调优
如需进行子图调优或算子调优,直接执行训练脚本,即可按照指定的调优模式自动调优。
- 如需指定调优路径,执行训练前,可以修改训练脚本中的work_path或者aoe_config.work_path。
- 如需对指定算子进行调优,执行训练前,可以修改训练脚本中的aoe_config_file或者aoe_config.aoe_config_file。
查看调优结果
1 2 3 4 |
# TFAdapter开启调优 in tune mode, training graph handled by tools. # 工具启动调优 Aoe tuning graph. |
性能验证
子图调优完成后,请还原代码,使用调优后的自定义知识库(如何使用请参见如何使用调优后的自定义知识库)重新训练,验证性能是否提高。
算子调优完成后,请还原代码,并刷新算子编译缓存,即将op_compiler_cache_mode设置为force(详见《TensorFlow 1.15模型迁移指南》),使用调优后的自定义知识(如何使用请参见如何使用调优后的自定义知识库)重新训练,验证性能是否提高。
算子调优结果文件
算子调优结果文件的存放路径优先级为:ASCEND_WORK_PATH > 默认(执行调优的工作目录),若未配置ASCEND_WORK_PATH(可以使用env命令查询是否配置,ASCEND_WORK_PATH详细信息请参考《环境变量参考》),算子调优结果文件存放在默认路径(执行调优的工作目录)。
调优过程中,实时生成的结果文件命名为“aoe_result_opat_${timestamp}_${pidxxx}.json”,记录了调优过程中被调优的算子信息。其中${timestamp}为时间戳,格式为:年月日时分秒毫秒,“${pidxxx}”中的“xxx”为进程ID。
内容格式如下所示,可以包括多个调优任务,各字段含义请参见表2。tid为线程ID。
{ "report_${timestamp}_${tid}": [ { "basic": { "tuning_name": "调优任务名", "tuning_time(s)": 44 } }, { "OPAT": { "opat_tuning_result": "tuning successful", "repo_modified_operators": [ { "op_name": "bert/encoder/layer_10/attention/self/Softmax_OPAT_0", "op_type": "SoftmaxV2", "tune_performance": { "Format": { "performance_after_tune(us)": 26.876, "performance_before_tune(us)": 58.781, "performance_improvement": "118.71%", "update_mode": "add" } } }, { "op_name": "bert/encoder/layer_8/attention/output/dense/MatMulbert/encoder/layer_8/attention/output/add", "op_type": "MatMulV2", "tune_performance": { "Schedule": { "performance_after_tune(us)": 15.71, "performance_before_tune(us)": 16.71, "performance_improvement": "6.37%", "update_mode": "add" } } } ], "repo_summary": { "repo_add_num": 2, "repo_hit_num": 10, "repo_reserved_num": 10, "repo_unsatisfied_num": 1, "repo_update_num": 0, "total_num": 13 } } } ], "report_${timestamp}_${tid}": [ ........ .....
调优失败时(即opat_tuning_result显示为"tuning failed"时),还会显示调优失败的算子的op_name列表。
"tuning_failed_operators": [ "res4a_branch1" ]
字段名称 |
含义 |
|||
---|---|---|---|---|
basic |
||||
- |
tuning_name |
- |
- |
调优任务名称。 |
- |
tuning_time(s) |
- |
- |
调优耗费的时长,单位:s。 调优中断场景下(比如coredump、oom)不记录该字段。 |
OPAT
说明:
没有可调优的算子时,该段信息不存在。 |
||||
- |
opat_tuning_result |
- |
- |
调优结果,成功时显示为"tuning successful",失败时显示为"tuning failed",调优未完成、异常中断退出时显示为"tuning incomplete"。 |
- |
repo_modified_operators |
- |
- |
调优后,调优策略有增加和更新的算子详细信息。 |
- |
- |
op_name |
- |
算子名称。 |
- |
- |
op_type |
- |
算子类型。可以有一个,也可以有多个。当有多个的时候,需要使用[]将多个算子类型括起来。 |
- |
- |
tune_performance |
- |
算子性能提升具体信息。 |
- |
- |
Format或者Schedule或者Impl |
- |
算子的调优模式,包括如下取值:
|
- |
- |
- |
performance_after_tune(us) |
调优后算子执行时间,单位:us。 |
- |
- |
- |
performance_before_tune(us) |
调优前算子执行时间,单位:us。 |
- |
- |
- |
performance_improvement |
调优后算子执行时间减少百分比。 |
- |
- |
- |
update_mode |
算子调优策略更新模式,取值如下。
|
说明:
针对每个调优策略有新增或者更新的算子,都会包括如上op_name~update_mode的信息。 |
||||
- |
repo_summary |
- |
- |
记录调优任务中不同状态算子的信息。 |
- |
- |
repo_add_num |
- |
调优前调优策略不在知识库中,调优后调优策略追加到知识库中的调优策略个数。 |
- |
- |
repo_hit_num |
- |
调优过程中调优策略在知识库中的调优策略个数。 |
- |
- |
repo_reserved_num |
- |
调优前调优策略在知识库中,调优后知识库中的调优策略无变化的调优策略个数。 |
- |
- |
repo_unsatisfied_num |
- |
调优前调优策略不在知识库,调优后也未写入知识库的调优策略个数。 |
- |
- |
repo_update_num |
- |
调优前调优策略在知识库中,调优后知识库中的调优策略有更新的调优策略个数。 |
- |
- |
total_num |
- |
调优任务中被调优的调优策略总数。
|
- |
tuning_failed_operators |
- |
- |
调优失败的算子的op_name列表。
说明:
可选,当opat_tuning_result显示"tuning failed"时才记录该字段。 |
子图调优结果文件
子图调优结果文件的存放路径优先级为:ASCEND_WORK_PATH > 默认(执行调优的工作目录),若未配置ASCEND_WORK_PATH(可以使用env命令查询是否配置,ASCEND_WORK_PATH详细信息请参考《环境变量参考》),子图调优结果文件存放在默认路径(执行调优的工作目录)。
调优过程中,实时生成的结果文件命名为“aoe_result_sgat_${timestamp}_${pidxxx}.json”,记录了调优过程中被调优的子图信息。其中${timestamp}为时间戳,格式为:年月日时分秒毫秒,“${pidxxx}”中的“xxx”为进程ID。
内容格式如下所示,可以包括多个调优任务,各字段含义请参见表3。tid为线程ID。
"report_${timestamp}_${tid}": [ { "basic": { "tuning_name": "调优任务名", "tuning_time(s)": 19 } }, { "SGAT": { "model_baseline_performance(ms)": 5.600486, "model_performance_improvement": "55.11%", "model_result_performance(ms)": 3.610442, "repo_modified_subgraphs": { "add_repo_subgraphs": [ { "performance_after_tune(ms)": 3.573203, "performance_before_tune(ms)": 5.58434, "performance_improvement": "56.28%", "repo_key": "1024942313106047484" } ] "update_repo_subgraphs": [ { "performance_after_tune(ms)": 2.573203, "performance_before_tune(ms)": 4.58434, "performance_improvement": "78.15%", "repo_key": "1024942313106057586" } ] }, "repo_summary": { "repo_add_num": 1, "repo_hit_num": 1, "repo_reserved_num": 0, "repo_unsatisfied_num": 120, "repo_update_num": 1, "total_num": 121 } } } ], "report_${timestamp}_${tid}": [ ....... .......
字段名称 |
含义 |
|||
---|---|---|---|---|
basic |
||||
- |
tuning_name |
- |
- |
调优任务名称。 |
- |
tuning_time(s) |
- |
- |
调优耗费的时长,单位:s。 |
SGAT
说明:
子图调优失败时,该段信息不存在。 |
||||
- |
model_baseline_performance(ms) |
- |
- |
调优前模型执行时间,单位: ms。 |
- |
model_performance_improvement |
- |
- |
调优后模型执行时间减少百分比。 |
- |
model_result_performance(ms) |
- |
- |
调优后模型执行时间,单位: ms。 |
- |
repo_modified_subgraphs |
- |
- |
调优后,调优策略有增加和更新的子图详细信息。 |
- |
- |
add_repo_subgraphs |
- |
调优后调优策略有增加的子图,可以没有,也可以有多个。 |
- |
- |
- |
performance_before_tune(ms) |
调优前子图执行时间,单位: ms。 |
- |
- |
- |
performance_after_tune(ms) |
调优后子图执行时间,单位:ms。 |
- |
- |
- |
performance_improvement |
调优后子图执行时间减少百分比。 |
- |
- |
- |
repo_key |
调优后子图的key值,用于调优知识库查询。 |
- |
- |
update_repo_subgraphs |
- |
调优后调优策略有更新的子图,可以没有,也可以有多个。 |
- |
- |
- |
performance_before_tune(ms) |
调优前子图执行时间,单位: ms。 |
- |
- |
- |
performance_after_tune(ms) |
调优后子图执行时间,单位:ms。 |
- |
- |
- |
performance_improvement |
调优后子图执行时间减少百分比。 |
- |
- |
- |
repo_key |
调优后子图的key值,用于调优知识库查询。 |
- |
repo_summary |
- |
- |
记录调优过程中不同状态子图的个数。 |
- |
- |
repo_add_num |
- |
调优前调优策略不在知识库中,调优后调优策略追加到知识库中的子图的个数。 |
- |
- |
repo_hit_num |
- |
调优过程中调优策略在知识库中的子图的个数。 |
- |
- |
repo_reserved_num |
- |
调优前调优策略在知识库中,调优后知识库中的调优策略无变化的子图的个数。 |
- |
- |
repo_unsatisfied_num |
- |
调优前调优策略不在知识库,调优后也未写入知识库的子图个数。 |
- |
- |
repo_update_num |
- |
调优前调优策略在知识库中,调优后知识库中的调优策略有更新的子图个数。 |
- |
- |
total_num |
- |
调优任务中调优的子图总数。
|