class SiLU(nn.Module):
按元素应用基于NPU的Sigmoid线性单元(SiLU)函数。SiLU函数也称为Swish函数。
无
from torch_npu.contrib.module import SiLU m = nn.SiLU()
>>> m = nn.SiLU() >>> input_tensor = torch.randn(2, 32, 5, 5) >>> output = m(input_tensor)