torch_npu.npu_dropout_with_add_softmax

torch_npu.npu_dropout_with_add_softmax(Tensor self, Tensor x1, Scalar alpha, float prob, int dim) -> (Tensor, Tensor, Tensor)

实现axpy_v2、softmax_v2、drop_out_domask_v3功能。即:

y=x1+ self *alpha

Softmax(xi)= exp(xi)/∑jexp(xj)

output = 根据mask舍弃x中的元素,留下来的元素乘(1/prob)