文档
注册

Adagrad

函数原型

def create_hash_optimizer(learning_rate=0.001, initial_accumulator_value=0.9, use_locking=False, name="Adagrad")

接口返回值

CustomizedAdagrad(自定义Adagrad优化器)的一个实例对象。

优化器参数介绍

参数名称

参数说明

参数类型

必选/可选

默认值

取值范围

learning_rate

学习率。

float

可选

0.001

不涉及

initial_accumulator_value

累加器的初始值。

float

可选

0.9

(0, +∞)

use_locking

优化器中防止对变量并发更新。

bool

可选

False

不涉及

name

优化器名称。

string

可选

Adagrad

不涉及

使用示例

from mx_rec.optimizers.adagrad import create_hash_optimizer
hashtable_optimizer = create_hash_optimizer(0.001)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词