Adagrad
自定义Adagrad优化器。
函数原型
def create_hash_optimizer(learning_rate=0.001, initial_accumulator_value=0.9, use_locking=False, name="Adagrad")
参数说明
参数名称 |
参数说明 |
参数类型 |
必选/可选 |
默认值 |
取值范围 |
---|---|---|---|---|---|
learning_rate |
学习率。 |
float/tf.Tensor |
可选 |
0.001 |
[0.0, 10.0] |
initial_accumulator_value |
累加器的初始值。 |
float |
可选 |
0.9 |
(0.0, 1.0] |
use_locking |
优化器中防止对变量并发更新。 |
bool |
可选 |
False |
|
name |
优化器名称。 |
string |
可选 |
Adagrad |
优化器名称长度范围:[1, 200] |
返回值说明
CustomizedAdagrad(自定义Adagrad优化器)的一个实例对象。
使用示例
from mx_rec.optimizers.adagrad import create_hash_optimizer hashtable_optimizer = create_hash_optimizer(0.001)
父主题: 优化器