该接口计划废弃,可以使用torch.nn.SiLU接口进行替换。
torch_npu.contrib.module.SiLU(nn.Module):
按元素应用基于NPU的Sigmoid线性单元(SiLU)函数。SiLU函数也称为Swish函数。
1 2 3 4 | >>> from torch_npu.contrib.module import SiLU >>> m = SiLU() >>> input_tensor = torch.randn(2, 32, 5, 5).npu() >>> output = m(input_tensor) |