(beta)torch_npu.npu_apply_adam
该接口计划废弃,可以使用torch.optim.Adam或torch.optim.adam接口进行替换。
接口原型
torch_npu.npu_apply_adam(beta1_power, beta2_power, lr, beta1, beta2, epsilon, grad, use_locking, use_nesterov, out = (var, m, v))
功能描述
adam结果计数。
参数说明
- beta1_power (Scalar) - beta1的幂。
- beta2_power (Scalar) - beta2的幂。
- lr (Scalar) - 学习率。
- beta1 (Scalar) - 一阶矩估计值的指数衰减率。
- beta2 (Scalar) - 二阶矩估计值的指数衰减率。
- epsilon (Scalar) - 添加到分母中以提高数值稳定性的项数。
- grad (Tensor) - 梯度。
- use_locking (Bool,可选) - 设置为True时使用lock进行更新操作。
- use_nesterov (Bool,可选) - 设置为True时采用nesterov更新。
- var (Tensor) - 待优化变量。
- m (Tensor) - 变量平均值。
- v (Tensor) - 变量方差。
父主题: torch_npu