支持的aten API清单
以下清单中的aten API能力均对等eager模式下aten API能力。
aten API名称 |
约束 |
---|---|
torch.ops.aten._native_batch_norm_legit_functional.default |
支持fp16,fp32 track_running_stats为True |
torch.ops.aten._native_batch_norm_legit_no_training.default |
支持fp16,fp32 |
torch.ops.aten._softmax.default |
支持fp32 |
torch.ops.aten._softmax_backward_data.default |
支持fp32 |
torch.ops.aten._to_copy.default |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8,bool |
torch.ops.aten.addmm.default |
支持fp16,fp32 |
torch.ops.aten.bernoulli.default |
支持fp16,fp32 |
torch.ops.aten.bernoulli.p |
|
torch.ops.aten.bernoulli.Tensor |
|
torch.ops.aten.clone.default |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8 |
torch.ops.aten.div.Tensor |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8,bool |
torch.ops.aten.div.Scalar |
|
torch.ops.aten.div.Tensor_mode |
|
torch.ops.aten.div.Scalar_mode |
|
torch.ops.aten.div.int |
|
torch.ops.aten.div.float |
|
torch.ops.aten.div.default |
|
torch.ops.aten.empty_like.default |
支持fp16,fp32,int8,int16,int32,int64,uint8 |
torch.ops.aten.expand.default |
支持fp16,fp32,bf16,int16,int32,int64 |
torch.ops.aten.gelu.default |
支持fp16,fp32,bf16 |
torch.ops.aten.gelu_backward.default |
支持fp16,fp32,bf16 |
torch.ops.aten.gelu_backward.grad_input |
|
torch.ops.aten.hardswish.default |
支持fp16,fp32 |
torch.ops.aten.leaky_relu.default |
支持fp16,fp32,bf16 |
torch.ops.aten.mean.default |
支持fp16,fp32,bf16,complex64,complex128 |
torch.ops.aten.mean.dim |
|
torch.ops.aten.native_batch_norm_backward.default |
支持fp16,fp32 track_running_stats为True |
torch.ops.aten.native_layer_norm.default |
支持fp16,fp32,bf16 |
torch.ops.aten.native_layer_norm_backward.default |
支持fp16,fp32,bf16 |
torch.ops.aten.new_empty_strided.default |
- |
torch.ops.aten.permute.default |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8,bool,complex64,complex128 |
torch.ops.aten.select.int |
支持fp32 |
torch.ops.aten.select_backward.default |
支持fp32 |
torch.ops.aten.slice.Tensor |
支持fp16,fp32,bf16 |
torch.ops.aten.slice_backward.default |
支持fp16,fp32,bf16 |
torch.ops.aten.sum.bool |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8,bool |
torch.ops.aten.sum.complex |
|
torch.ops.aten.sum.default |
|
torch.ops.aten.sum.dim_IntList |
|
torch.ops.aten.sum.float |
|
torch.ops.aten.sum.int |
|
torch.ops.aten.t.default |
支持fp16,fp32,bf16,int8,int16,int32,int64,uint8 |
torch.ops.aten.threshold_backward.default |
支持fp32,int8,int16,int32,int64,uint8 |
如果自定义模型用到的aten API不在上述清单中,说明对应的API能力可能与eager模式不对等,用户需根据情况进行converter功能拓展,具体请参考LINK。