下载
中文
注册

TIK数据搬运

接口原型

对于Vector计算,一般是用Unified Buffer去存放数据,再进行计算,所以整体数据流应该是从Global Memory>Unified Buffer>Global Memory。TIK提供了data_move接口实现Global MemoryUnified Buffer间的数据搬运,函数原型为:

data_move(dst, src, sid, nburst, burst, src_stride, dst_stride, *args, **argv)

在data_move的函数原型中,用户需要着重关注dst、src、nburst、burst、src_stride、dst_stride等6个参数。其中:

dst为目的操作数,也就是数据搬运的目的地址;src为源操作数,也就是数据搬运的起始地址;nburst表示需要执行的搬运次数;burst表示一次搬运的数据片段长度(单位为32Bytes);src_stride、dst_stride则分别代表源数据与目的数据的数据片段间隔(即前 burst 尾与后 burst 头的间隔)。

data_move支持连续地址与间隔地址两种搬运模式。

图1 data_move的连续/间隔地址搬运模式

连续地址搬运

连续地址搬运是Tik算子开发中,最常见的数据搬运方式。

from tbe import tik

# 实例化tik_instance对象
tik_instance = tik.Tik()
# 定义一个在gm域的Tensor
data_input_gm = tik_instance.Tensor("int32", (256,), name="data_input_gm", scope=tik.scope_gm)
# 定义一个在ub域的Tensor
data_input_ub = tik_instance.Tensor("int32", (256,), name="data_input_ub", scope=tik.scope_ubuf)
# 使用data_move操作将输入的Tensor从gm搬到ub
tik_instance.data_move(data_input_ub, data_input_gm, 0, 1, 32, 0, 0)
# 对于ub进行一系列指令操作
.............
# 后续的搬出操作

在上述的案例中,我们首先分别在gm和ub空间开辟了一个256长度的,数据类型为int32的Tensor,然后我们执行从gm搬到ub的操作,数据搬运指令中几个参数的实际含义解释如下:

tik_instance.data_move(data_input_ub, data_input_gm, 0, 1, 32, 0, 0)
  • 第1个参数dst:因为数据从gm搬到ub,所以目的Tensor就是data_input_ub;
  • 第2个参数src:因为数据从gm搬到ub,所以源Tensor就是data_input_gm;
  • 第3个参数sid:一般默认为0;
  • 第4个参数nburst:源数据总大小是256int32每个int32大小为4Byte,即256*4=1024Byte,远小于UB大小,所以搬运一次即可,即nburst等于1
  • 第5个参数burst:连续传输数据片段的长度。个片段(称之为Block)是32Byte,而源数据大小为1024Byte所以总共需要1024 ÷ 32 = 32Block,即连续传输数据的长度为32个片段。
  • 第6个参数src_stride:因为是连续搬运,所以相邻搬运的数据片段前尾后头不需要间隔,填0(实际上仅搬运1次)。
  • 第7个参数dst_stride:因为是连续搬运,所以相邻搬运的数据片段前尾后头不需要间隔,填0(实际上仅搬运1次)。

如下的数据搬运图所示,每个方块表示一个32Byte的Block,其中存放了8个int32,所以相当于是256个int32点对点进行搬运。

若输入数据较大,超过了UB的大小限制,此时需要将GM中的数据分多次搬入到UB进行计算,同样分多次搬出到GM。假设UB的可用存储空间为248KB,代码示例如下所示:

from tbe import tik
tik_instance = tik.Tik()
src_gm = tik_instance.Tensor("float16", (126976, 2), name="src_gm", scope=tik.scope_gm)
dst_gm = tik_instance.Tensor("float16", (126976, 2), name="dst_gm", scope=tik.scope_gm)
dst_ub = tik_instance.Tensor("float16", (126976, ), name="dst_ub", scope=tik.scope_ubuf)
with tik_instance.for_range(0, 2) as i:
    # gm数据超过ub最大内存,先搬运一部分到ub进行计算,完成之后再搬回gm,可多次重复
    tik_instance.data_move(dst_ub, src_gm[i*126976], 0, 1, 7936, 0, 0)
    with tik_instance.for_range(0, 3) as j:
        # repeat_times最大为255 一次无法全部计算完,可以分多次计算,此处为节省空间src和dst 为同一个ub
        tik_instance.vec_add(128, dst_ub[j*128*255], dst_ub[j*128*255], dst_ub[j*128*255], 255, 8, 8, 8)     
    tik_instance.vec_add(128, dst_ub[3 * 128 * 255], dst_ub[3 * 128 * 255], dst_ub[3 * 128 * 255], 227, 8, 8, 8)
    # 将计算好的数据搬回至gm,再计算另外剩余的数据    
    tik_instance.data_move(dst_gm[i*126976], dst_ub, 0, 1, 7936, 0, 0)
tik_instance.BuildCCE(kernel_name="data_move", inputs=[src_gm], outputs=[dst_gm])
  • 本示例中,vec_add的两个源操作数以及目的操作数在UB中都使用相同的Tensor,即地址完全重叠。
  • TIK的数据搬运以及计算都是按照一维数据进行处理的。
示例解析:
  • GM中输入数据的大小为496KB(126976*2*2/1024),超出了可用UB的空间大小。所以考虑分两次(496KB/248KB = 2)搬运到UB中,即如下语句:
    with tik_instance.for_range(0, 2) as i
  • 每次搬运的数据大小为248KB,一次即可搬完,所以data_move指令中nburst设置为1即可。由于传输片段的单位是32Byte,即一个Block,所以一次需要传输248*1024/32 = 7936个Block,所以burst设置为7936,如下所示:
        tik_instance.data_move(dst_ub, src_gm[i*126976], 0, 1, 7936, 0, 0)
  • 由于Vector一次最多可计算256Byte的数据,计算的重复迭代次数最大为255次,所以一次循环计算最多可处理256*255 = 65280 Byte的数据,从而得出一次搬运的数据需要分 248*1024/65280 = 3.89...次循环进行计算。
    前3次循环计算按最多数据量(65280Byte)处理,最后一次处理剩余的58112Byte的数据,58112Byte的数据需要重复227次(58112/256 = 227)。
        with tik_instance.for_range(0, 3) as j:
            # 前三次计算,每次计算都处理256*255Byte的数据,即128*255个float16的数据。此处为节省空间src和dst 为同一个ub
            tik_instance.vec_add(128, dst_ub[j*128*255], dst_ub[j*128*255], dst_ub[j*128*255], 255, 8, 8, 8)
        # 最后一次计算,处理剩余数据,剩余数据需要重复227迭代进行计算    
        tik_instance.vec_add(128, dst_ub[3 * 128 * 255], dst_ub[3 * 128 * 255], dst_ub[3 * 128 * 255], 227, 8, 8, 8)
  • 最后,将计算好的数据搬出到GM,再执行下一次循环,进行剩余数据的处理即可。

间隔地址搬运

上述表示了连续的数据搬运,其中src_stride和dst_stride都是0,非连续的数据搬运的场景则稍显复杂。

from tbe import tik

tik_instance = tik.Tik()
data_input_gm = tik_instance.Tensor("int32", (256,), name="data_input_gm", scope=tik.scope_gm)
data_input_ub = tik_instance.Tensor("int32", (176,), name="data_input_ub", scope=tik.scope_ubuf)
# 非连续搬运的案例
tik_instance.data_move(data_input_ub, data_input_gm, 0, 4, 4, 4, 2)
.............
  • 第4个参数nburst:传输4段数据片段;
  • 第5个参数burst:每个数据片段都需要连续传输4个Block,相当于一次只传输32个int32;
  • 第6个参数src_stride:相邻搬运的数据片段前尾后头间隔4个Block,相当于间隔32个int32;
  • 第7个参数dst_stride:相邻搬运的数据片段前尾后头间隔2个Block,相当于间隔16个int32;

如下的数据搬运图可以直观地表示这样的搬运过程:

间隔地址搬运场景比较少见,经常使用的还是连续地址搬运的场景,平常写算子的时候,也不会在burst上直接写数字,而是用:element_size_to_move * DATA_TYPE_SIZE / BLOCK_SIZE_BYTE 去表示:

tik_instance.data_move(data_input_ub, data_input_gm, SID, DEFAULT_NBURST,
                       element_size_to_move * DATA_TYPE_SIZE // BLOCK_SIZE_BYTE,
                       STRIDE_ZERO, STRIDE_ZERO)

其中DEFAULT_NBURST=1,BLOCK_SIZE_BYTE=32,STRIDE_ZERO=0。这样其他用户在阅读TIK算子代码的时候,其中参数的含义会比单纯的数字更加简明易懂。

有偏移的连续地址搬运

在实际的开发过程中也会出现从Tensor某一位置搬运的场景,此时可以有如下的data_move使用方式:

from tbe import tik

tik_instance = tik.Tik()
data_input_gm = tik_instance.Tensor("int32", (256,), name="data_input_gm", scope=tik.scope_gm)
data_input_ub = tik_instance.Tensor("int32", (256,), name="data_input_ub", scope=tik.scope_ubuf)
# 有offset的连续数据搬运
tik_instance.data_move(data_input_ub[8], data_input_gm[16], 0, 1, 30, 0, 0)
.............

由数据搬运图可见,总共需要搬运30个Block,但是src是从第3个Block开始搬运,即第16个int32开始搬运,然后将30个Block依次搬到dst第2个开始的Block中,即第8个int32开始填入。

注意:
  • 由于不同昇腾AI处理器的架构稍有不同,所以对于搬运地址的要求也不同(参考表2),有的需要ub地址32Byte对齐,有的不需要。当ub需要32Byte对齐时,即从ub中读取或者写入的起始地址会根据数据类型的不同,必须是4或者8的倍数,如对于数据类型int32,一个Block记录了8个int32,则ub Tensor起始地址必须是8的倍数,又如int16起始地址必须是16的倍数等等。
  • 所有型号的昇腾AI处理器对于gm都不要求起始地址32Byte对齐。但当输入数据不满足32Byte对齐的场景时,为保证计算结果的准确性,针对尾块数据,可采用数据回退的方式,将数据回退为满足32Byte,然后再搬运UB,计算完成后,再采用相同的方式搬回gm。

    图2所示,输入数据为23个类型是float16的数据。

    数据从GM搬运到UB的场景:
    1. 第一次搬运16个float16的数据到UB,即GM[0]~GM[15]搬运到UB[0]~UB[15]。
    2. 第二次回退9个数据进行搬运,使得搬运的数据满足32Byte对齐的要求,即GM[7]~GM[22]搬运到UB[16]~UB[31]。

      由此可以看出,GM[7]~GM[15]被重复搬运了两次到UB,即UB[7]~UB[15]与UB[16]~UB[24]的数据相同,如下图中的灰色阴影数据块。

    数据从UB搬运到GM的场景:
    1. 第一次搬运UB[0]~UB[15]的数据到GM[0]~GM[15]。
    2. 第二次搬运UB[16]~UB[31]的数据到GM[7]~GM[22]。

      UB[16]~UB[24]中的数据覆盖了UB[7]~[15]的数据,即GM中灰色阴影数据块。原本这两部分数据就是相同的,所以最终搬出到GM中的数据是正确的。

    图2 输入数据不满足32Byte对齐场景
    代码示例如下所示:
    from tbe import tik
    tik_instance = tik.Tik()
    src_gm = tik_instance.Tensor("float16", (23, ), name="src_gm", scope=tik.scope_gm)
    dst_gm = tik_instance.Tensor("float16", (23, ), name="dst_gm", scope=tik.scope_gm)
    src_ub = tik_instance.Tensor("float16", (32, ), name="src_ub", scope=tik.scope_ubuf)
    dst_ub = tik_instance.Tensor("float16", (32, ), name="dst_ub", scope=tik.scope_ubuf)
    tik_instance.vec_dup(32, src_ub, 0, 1, 1)
    tik_instance.vec_dup(32, dst_ub, 0, 1, 1)
    with tik_instance.for_range(0, 2) as i:
        # 可以进行两次搬运,第一次32Byte对齐搬运,第二次数据前移再按照32Byte对齐方式搬运到ub
        tik_instance.data_move(src_ub[i*16], src_gm[i*(23-16)], 0, 1, 1, 0, 0)
    tik_instance.vec_add(32, dst_ub, src_ub, src_ub, 1, 1, 1, 1)
    # ub -> gm 采取相同搬运方式,第一次搬运32Byte的数据到gm;第二次将gm进行地址回退,满足32Byte对齐后,存储剩余ub中的数据
    with tik_instance.for_range(0, 2) as i:
        tik_instance.data_move(dst_gm[i*(23-16)], dst_ub[i*16], 0, 1, 1, 0, 0)
    tik_instance.BuildCCE(kernel_name="data_move", inputs=[src_gm], outputs=[dst_gm])

课后练习

请完成一个简单的TIK算子以实现基本的数据搬入搬出功能,要求如下:

  1. 在gm和ub中开辟一定大小的Tensor空间,要求空间尽量小,在保证正确的情况下尽量不要开辟无用的空间;
  2. 搬入部分:将129个fp16数据从gm搬到ub中,gm中需要从gm[2]地址开始连续读取,到ub中的排布方式是每搬完16个fp16后,再间隔16个fp16进行写入;
  3. 搬出部分:将127个int32数据从ub搬到gm中,其中ub要从ub[32]开始搬运,每搬完16个int32后,再间隔32个int32进行搬运,搬到gm中需要连续写入。

注:假设ub的起始地址需要32B对齐。

【参考答案】:

from tbe import tik

tik_instance = tik.Tik()
data_input_gm = tik_instance.Tensor("float16", (146,), name="data_input_gm", scope=tik.scope_gm)
data_input_ub = tik_instance.Tensor("float16", (272,), name="data_input_ub", scope=tik.scope_ubuf)
tik_instance.data_move(data_input_ub, data_input_gm[2], 0, 9, 1, 0, 1)
.............
data_output_gm = tik_instance.Tensor("int32", (128,), name="data_output_gm", scope=tik.scope_gm)
data_output_ub = tik_instance.Tensor("int32", (384,), name="data_output_ub", scope=tik.scope_ubuf)
tik_instance.data_move(data_output_gm, data_output_ub[32], 0, 8, 2, 4, 0)

【解析】:

gm搬运到ub的场景:因为129个fp16,每个Block能搬运16个fp16,所以需要搬运9个Block,因为gm从索引为2的数据开始连续搬运,且没有起始地址对齐的限制,所以gm的大小为9 * 16 + 2 = 146;因为ub是搬16个空16个,最后一个空的16个可以不分配空间,所以ub大小为9 * (16+16) - 16 = 272。每次搬1个Block,burst=1,且总共搬9个Block所以需要搬运9次,nburst=9。src端连续,src_stride=0,dst端前尾后头空16个fp16也就是1个Block,dst_stride=1,所以data_move中的参数分别是9, 1, 0, 1。

ub搬运到gm的场景:因为127个int32,每个Block能搬运8个int32,所以需要搬运16个Block,gm大小直接给成16 * 8 = 128即可;因为ub需要搬16个空32个,然后又从32地址开始搬,所以ub大小为8 * (16+32) - 32 + 32= 384。每次搬16个int32,所以每次搬2个Block,burst=2,且总共搬16个Block所以需要搬8次,nburst=8。src端前尾后头空32个int32也就是4个Block,src_stride=4,dst端连续,dst_stride=0,所以data_move中的参数分别是8, 2, 4, 0。