不,但它们(或可以被制成)也没有那么不同。
TL;博士
tf.nn.dynamic_rnn
用 0 替换序列结束后的元素。tf.keras.layers.*
据我所知,这无法复制,但是您可以通过RNN(Masking(...)
方法获得类似的行为:它只是停止计算并向前传递最后的输出和状态。您将获得与从tf.nn.dynamic_rnn
.
实验
tf.nn.dynamic_rnn
这是一个最小的工作示例,展示了使用和tf.keras.layers.GRU
不使用tf.keras.layers.Masking
layer之间的差异。
import numpy as np
import tensorflow as tf
test_input = np.array([
[1, 2, 1, 0, 0],
[0, 1, 2, 1, 0]
], dtype=int)
seq_length = tf.constant(np.array([3, 4], dtype=int))
emb_weights = (np.ones(shape=(3, 2)) * np.transpose([[0.37, 1, 2]])).astype(np.float32)
emb = tf.keras.layers.Embedding(
*emb_weights.shape,
weights=[emb_weights],
trainable=False
)
mask = tf.keras.layers.Masking(mask_value=0.37)
rnn = tf.keras.layers.GRU(
1,
return_sequences=True,
activation=None,
recurrent_activation=None,
kernel_initializer='ones',
recurrent_initializer='zeros',
use_bias=True,
bias_initializer='ones'
)
def old_rnn(inputs):
rnn_outputs, rnn_states = tf.nn.dynamic_rnn(
rnn.cell,
inputs,
dtype=tf.float32,
sequence_length=seq_length
)
return rnn_outputs
x = tf.keras.layers.Input(shape=test_input.shape[1:])
m0 = tf.keras.Model(inputs=x, outputs=emb(x))
m1 = tf.keras.Model(inputs=x, outputs=rnn(emb(x)))
m2 = tf.keras.Model(inputs=x, outputs=rnn(mask(emb(x))))
print(m0.predict(test_input).squeeze())
print(m1.predict(test_input).squeeze())
print(m2.predict(test_input).squeeze())
sess = tf.keras.backend.get_session()
print(sess.run(old_rnn(mask(emb(x))), feed_dict={x: test_input}).squeeze())
来自m0
那里的输出显示应用嵌入层的结果。请注意,根本没有零条目:
[[[1. 1. ] [[0.37 0.37]
[2. 2. ] [1. 1. ]
[1. 1. ] [2. 2. ]
[0.37 0.37] [1. 1. ]
[0.37 0.37]] [0.37 0.37]]]
现在这里是m1
,m2
和old_rnn
架构的实际输出:
m1: [[ -6. -50. -156. -272.7276 -475.83362]
[ -1.2876 -9.862801 -69.314 -213.94202 -373.54672 ]]
m2: [[ -6. -50. -156. -156. -156.]
[ 0. -6. -50. -156. -156.]]
old [[ -6. -50. -156. 0. 0.]
[ 0. -6. -50. -156. 0.]]
概括
- 旧的
tf.nn.dynamic_rnn
用于用零掩盖填充元素。
- 没有掩码的新 RNN 层在填充元素上运行,就好像它们是数据一样。
- 新
rnn(mask(...))
方法只是停止计算并将最后的输出和状态向前传递。请注意,我为此方法获得的(非填充)输出与来自tf.nn.dynamic_rnn
.
无论如何,我无法涵盖所有可能的边缘情况,但我希望您可以使用此脚本来进一步解决问题。