文档
注册

beta)torch_npu.npu_apply_adam

该接口计划废弃,可以使用torch.optim.Adam或torch.optim.adam接口进行替换。

接口原型

torch_npu.npu_apply_adam(beta1_power, beta2_power, lr, beta1, beta2, epsilon, grad, use_locking, use_nesterov, out = (var, m, v))

功能描述

adam结果计数。

参数说明

  • beta1_power (Scalar) - beta1的幂。
  • beta2_power (Scalar) - beta2的幂。
  • lr (Scalar) - 学习率。
  • beta1 (Scalar) - 一阶矩估计值的指数衰减率。
  • beta2 (Scalar) - 二阶矩估计值的指数衰减率。
  • epsilon (Scalar) - 添加到分母中以提高数值稳定性的项数。
  • grad (Tensor) - 梯度。
  • use_locking (Bool,可选) - 设置为True时使用lock进行更新操作。
  • use_nesterov (Bool,可选) - 设置为True时采用nesterov更新。
  • var (Tensor) - 待优化变量。
  • m (Tensor) - 变量平均值。
  • v (Tensor) - 变量方差。
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词