DynamicRNN构造函数
函数原型
class DynamicRNN(_DynamicBasic): def __init__(self, hidden_size, dtype, cell_type="LSTM", direction=DYNAMIC_RNN_UNIDIRECTION, cell_depth=1, use_peephole=False, keep_prob=1.0, cell_clip=-1.0, num_proj=0, time_major=True, activation="tanh", forget_bias=0.0, is_training=True)
功能说明
TensorFlow侧使用该接口,支持RNN类网络训练、推理。
使用约束
该接口为tf.nn.dynamic_rnn的高性能实现接口,用户可以对原生接口进行替换,需要注意的是:
- TensorFlow原生接口tf.nn.dynamic_rnn可以对cell层做添加处理,比如首尾连接等,DynamicRNN不支持直接对cell层做添加处理,需要在函数外自行实现。
- 目前该接口支持的功能有限,具体约束详见参数说明表。
参数说明
参数名 |
输入/输出 |
描述 |
---|---|---|
hidden_size |
输入 |
RNN模型中隐状态h的维度。 |
dtype |
输入 |
weight、bias初始化的数据类型,注:传入的数据最终会转化成D支持的类型。 |
cell_type |
输入 |
(可选)目前仅支持"LSTM"。 |
direction |
输入 |
(可选)目前仅支持DYNAMIC_RNN_UNIDIRECTION。 |
cell_depth |
输入 |
(可选)目前仅支持单层。 |
use_peephole |
输入 |
(可选)目前不支持窥孔计算。 |
keep_prob |
输入 |
(可选)目前不支持dropout。 |
cell_clip |
输入 |
(可选)目前不支持数值裁剪。 |
num_proj |
输入 |
(可选)目前不支持投影计算。 |
time_major |
输入 |
(可选)目前仅支持输入x是【num_step, batch_size, embedding】模式。 |
activation |
输入 |
(可选)目前仅支持"tanh"。 |
forget_bias |
输入 |
(可选)默认是0.0。 |
is_training |
输入 |
(可选)默认是训练模式。 |
返回值
output_y:RNN的输出Tensor,shape为【num_step, batch_size, hidden_size】。
output_h:RNN的输出Tensor,shape为【num_step, batch_size, hidden_size】。
output_c:RNN的输出Tensor,shape为【num_step, batch_size, hidden_size】。
i:RNN计算的中间结果,用于反向计算使用。
j:RNN计算的中间结果,用于反向计算使用。
f:RNN计算的中间结果,用于反向计算使用。
o:RNN计算的中间结果,用于反向计算使用。
tanhc:RNN计算的中间结果,用于反向计算使用。
调用示例
1 2 3 4 5 |
import tensorflow as tf from npu_bridge.estimator.npu.npu_dynamic_rnn import DynamicRNN inputs = tf.random.normal(shape=(25, 64, 128)) lstm = DynamicRNN(hidden_size=16, dtype=tf.float16, is_training=False) y, output_h, output_c, i, j, f, o, tanhc = lstm(inputs, seq_length=None, init_h=None, init_c=None) |