文档
注册

函数:execute_v2

C函数原型

aclError aclopExecuteV2(const char *opType, int numInputs, aclTensorDesc *inputDesc[], aclDataBuffer *inputs[], int numOutputs, aclTensorDesc *outputDesc[], aclDataBuffer *outputs[], aclopAttr *attr, aclrtStream stream);

Python函数

ret = acl.op.execute_v2(op_type, input_desc, inputs, output_desc, outputs, attr, stream)

函数功能

同步或者异步执行指定的算子。

输入说明

op_type:str,指定算子类型名称。

input_desc:list,表示算子输入tensor的描述, 整形列表,包含多个acl的tensor描述地址对象。

inputs:list,表示算子输入tensor,整形列表,包含多个aclDataBuffer数据地址对象。

output_desc:list,表示算子输出tensor的描述,整形列表,包含多个acl的tensor描述地址对象。

outputs:list,表示算子输出tensor,整形列表,包含多个aclDataBuffer数据地址对象。

attr:int,算子的属性地址对象。

stream:int,该算子需要加载的Stream对象。

返回值说明

ret:int,错误码。

  • 返回0表示成功。
  • 返回其它值表示失败。

约束说明

多线程场景下,不支持调用本接口时指定同一个Stream或使用默认Stream,否则可能任务执行异常。

每个算子的输入、输出组织不同,需要应用在调用时严格按照算子输入、输出参数来组织算子。用户在调用acl.op.execute_v2接口时,pyACL根据optype、输入tensor的描述、输出tensor的描述、attr等信息查找对应的任务,并下发执行。

对于支持动态Shape的算子,无法明确算子输出Shape时,可调用acl.op.infer_shape接口获取算子的输出Shape:
  • 若可获取到准确的输出Shape,则使用准确的输出Shape来构造outputDesc参数,作为acl.op.execute_v2的输入。该场景下,acl.op.execute_v2接口是异步接口。

  • 若无法获取准确的输出Shape,仅能获取输出Shape范围,则使用Shape最大值来构造outputDesc参数,作为acl.op.execute_v2的输入。该场景下,在调用acl.op.execute_v2接口执行算子后,系统内部会计算出准确的输出Shape,通过acl.op.execute_v2接口的outputDesc参数输出,此时acl.op.execute_v2接口是同步接口。

  • (该场景预留)若无法获取准确的输出Shape以及Shape范围,则需由用户预估一个最大的Shape来构造outputDesc参数,作为acl.op.execute_v2的输入。该场景下,在调用acl.op.execute_v2接口执行算子后,系统内部会计算出准确的输出Shape,通过acl.op.execute_v2接口的outputDesc参数输出,此时acl.op.execute_v2接口是同步接口。

执行有可选输入的算子时,如果可选输入不使用:
  • 则需按此种方式创建aclTensorDesc类型的数据:acl.create_tensor_desc(ACL_DT_UNDEFINED, 0, [], ACL_FORMAT_UNDEFINED),表示数据类型设置为ACL_DT_UNDEFINED,Format设置为ACL_FORMAT_UNDEFINED,Shape信息为[]。
  • 则需按此种方式创建aclDataBuffer类型的数据:acl.create_data_buffer([], 0),同时aclDataBuffer中的数据不需要释放。

执行有constant输入的算子时,需要先调用acl.set_tensor_const接口设置constant输入。

调用acl.op.execute_v2接口时,设置的constant输入数据必须保持一致。

对于算子有constant输入的场景,如果未调用acl.set_tensor_const接口设置constant输入,则需调用acl.set_tensor_place_ment设置TensorDesc的placement属性,将memType设置为Host内存。

在执行单算子时,一般要求用户传入的输入/输出tensor数据是存放在Device内存的,比如两个tensor相加的场景。但是,也存在部分算子,除了将featureMap、weight等Device内存中的tensor数据作为输入外,还需tensor shape信息、learningRate、tensor的dims信息等通常在Host内存中的tensor数据也作为输入,此时,用户不需要额外将这些Host内存中的tensor数据拷贝到Device上作为输入,只需要调用acl.set_tensor_place_ment接口设置对应TensorDesc的placement属性为Host内存,在执行单算子时,设置了placement属性为Host内存的TensorDesc,其对应的tensor数据必须存放在Host内存中,AscendCL内部会自动将Host上的tensor数据拷贝到Device上。

注意事项

参考资源

接口调用流程、示例,参见单算子调用

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词