5

我目前正在使用一维卷积神经网络对 Keras 中的多元时间序列进行分类。特别是,每个实例由 9 个等长时间序列(每个 300 个点)表示。

正如我在文献中所读到的,当在图像上使用 2D 卷积时,可以获得关于网络正在寻找的位置以进行分类的提示:例如,您可以使用所谓的类激活图,例如:

https://rajpurkar.github.io/mlx/visualizing-cnns/class_activation_maps.png

有什么类似的东西可以用来可视化给定多元时间序列中最“有意义”的切片吗?

这是我当前的网络架构:

Input shape: 300 9
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
conv1d_1 (Conv1D)            (None, 292, 128)          10496     
_________________________________________________________________
batch_normalization_1 (Batch (None, 292, 128)          512       
_________________________________________________________________
activation_1 (Activation)    (None, 292, 128)          0         
_________________________________________________________________
max_pooling1d_1 (MaxPooling1 (None, 58, 128)           0         
_________________________________________________________________
conv1d_2 (Conv1D)            (None, 50, 128)           147584    
_________________________________________________________________
batch_normalization_2 (Batch (None, 50, 128)           512       
_________________________________________________________________
activation_2 (Activation)    (None, 50, 128)           0         
_________________________________________________________________
max_pooling1d_2 (MaxPooling1 (None, 10, 128)           0         
_________________________________________________________________
flatten_1 (Flatten)          (None, 1280)              0         
_________________________________________________________________
dense_1 (Dense)              (None, 300)               384300    
=================================================================
Total params: 543,404
Trainable params: 542,892
Non-trainable params: 512
_________________________________________________________________

就目前而言,我已经成功地可视化了网络中的激活函数。例如,下面的代码片段在给定输入实例的情况下打印第一个激活层中第一个激活函数(第一个超过 128)的结果:

from keras import models

layer_outputs = [layer.output for layer in model.layers[:2]]
activation_model = models.Model(inputs=model.input, outputs=layer_outputs)
activations = activation_model.predict(X_train_windows[0:1])
first_layer_activation = activations[0]
print(first_layer_activation.shape)

plt.plot(first_layer_activation[0, :, 0])

结果是以下时间序列,长度为 292:

https://i.ibb.co/TqK6g9D/Schermata-2019-01-15-alle-10-24-39-2.png

但是,我发现很难直观地解释图表。

我怎样才能为这样的时间序列赋予意义?有没有办法像在 CAM 中那样突出显示输入?

谢谢!

4

1 回答 1

3

你可以使用类似Keras-Vis 库的东西

基本上你试图找到最大化某个类的输入,这会产生一些一维序列(在你的例子中是一个由 9 个元素组成的 300 个向量的序列)。

然后,您可以分别绘制 9 个通道中的每一个,或将其绘制在彼此之上,以了解这个东西的外观。然后,您需要具备领域知识来尝试理解这意味着什么(如果它意味着什么)。如果您想了解某个类的输入是什么样的,这很有用

您可以对Activation Maps ( Saliency Maps ) 执行相同的操作(您可以使用链接的相同库进行计算)。如果您想了解信息所在的位置(在空间中),这很有用

现在,在不知道数据的性质、领域或背景的情况下,很难再说什么……

编辑

好的,我现在明白你的问题了。也可能值得尝试将此问题视为多实例学习

您也可以尝试使用带有Attention Mechanism的LSTM

于 2019-01-16T01:34:21.283 回答