算子计算搬运规格分析
文档中的Ascendxxxyy需替换为实际使用的芯片类型。
以matmul算子为例,该用例表示准备处理[160, 240]和[240, 80]的矩阵乘,切割为25个[32, 48], [48, 16]的小矩阵做矩阵乘。通过调用msKPP提供的接口实现的main.py脚本样例如下:
from mskpp import mmad, Tensor, Chip def my_mmad(gm_x, gm_y, gm_z): # 矩阵乘的基本数据通路: # 左矩阵A:GM-L1-L0A # 右矩阵B:GM-L1-L0B # 结果矩阵C: L0C(初始化)-GM l1_x = Tensor("L1") l1_y = Tensor("L1") l1_x.load(gm_x) l1_y.load(gm_y) x = Tensor("L0A") y = Tensor("L0B") x.load(l1_x) y.load(l1_y) z = Tensor("L0C", "FP32", [32, 16], format="NC1HWC0") out = mmad(x, y, z, True)() # 对于输出需要返回传出 z = out[0] return z if __name__ == '__main__': with Chip("Ascendxxxyy") as chip: chip.enable_trace() # 使能算子模拟流水图的功能,生成trace.json文件 chip.enable_metrics() # 使能单指令及分PIPE的流水信息,生成Instruction_statistic.csv和Pipe_statistic.csv文件 # 这里进入了对数据切分逻辑的处理,对一大块GM的数据,如何经过拆分成小数据分批次搬入,如何对 # 内存进行分片多buffer搬运,都是属于tiling策略的范畴,这里模拟了单buffer情况, # 将[160, 240]和[240, 80]的矩阵乘,切割为25个[32, 48], [48, 16]的小矩阵分批次进行运算的一个tiling策略 for _ in range(125): in_x = Tensor("GM", "FP16", [32, 48], format="ND") in_y = Tensor("GM", "FP16", [48, 16], format="ND") in_z = Tensor("GM", "FP32", [32, 16], format="NC1HWC0") out_z = my_mmad(in_x, in_y, in_z) in_z.load(out_z)
使用Python执行以上main.py脚本后,会在当前目录下生成搬运流水统计文件(Pipe_statistic.csv)和指令信息统计文件(Instruction_statistic.csv),可查看msKPP建模结果。
若当前目录下有相同名称的.csv文件,msKPP工具新生成的.csv文件会直接进行覆盖。
搬运流水统计
搬运流水统计文件Pipe_statistic.csv,该文件统计了不同PIPE的总搬运数据量大小、操作数个数以及耗时信息。
图1 Pipe_statistic.csv
关键字段说明如下。
字段名 |
字段解释 |
---|---|
Pipe |
表示昇腾芯片中不同PIPE单元的名称。 |
Duration(us) |
PIPE耗时,单位us。 |
Cycle |
各个指令每次执行时消耗的cycle数。 |
Size(B) |
表示搬运类PIPE的搬运量大小,单位B。 |
Ops |
表示计算类PIPE的计算元素大小。 |
对于流水线耗时最长,明显是搬运性能瓶颈的PIPE,通常有如下优化思路:
- 若搬运数据量较大时,尽可能一次搬运较多的数据,充分利用搬运带宽。
- 尽可能保证性能瓶颈的PIPE在流水上一直在工作。
指令信息统计
指令信息统计文件Instruction_statistic.csv,该文件统计了不同指令维度的总搬运数据量大小、操作数个数以及耗时信息,能够发现指令层面上的瓶颈主要在MOV-GM_TO_L1(属于PIPE-MTE2),从指令层面找到了性能瓶颈处。
图2 Instruction_statistic.csv
关键字段说明如下。
字段名 |
字段解释 |
---|---|
Instruction |
指令名称。 |
Duration(us) |
PIPE耗时,单位us。 |
Cycle |
各个指令每次执行时消耗的cycle数。 |
Size(B) |
表示搬运类PIPE的搬运量大小。 |
Ops |
表示计算类PIPE的计算元素大小。 |
父主题: 算子设计(msKPP)