2

我在 tf.keras 中编写模型,在训练集上运行 model.evaluate() 通常会产生约 96% 的准确率。我对测试集的评价通常很接近,大约 93%。但是,当我手动预测时,模型通常是不准确的。这是我的代码:

import tensorflow as tf
from tensorflow.keras import layers
import numpy as np
import pandas as pd

!git clone https://github.com/DanorRon/data
%cd data
!ls

batch_size = 100
epochs = 15
alpha = 0.001
lambda_ = 0.001
h1 = 50

train = pd.read_csv('/content/data/mnist_train.csv.zip')
test = pd.read_csv('/content/data/mnist_test.csv.zip')

train = train.loc['1':'5000', :]
test = test.loc['1':'2000', :]

train = train.sample(frac=1).reset_index(drop=True)
test = test.sample(frac=1).reset_index(drop=True)

x_train = train.loc[:, '1x1':'28x28']
y_train = train.loc[:, 'label']

x_test = test.loc[:, '1x1':'28x28']
y_test = test.loc[:, 'label']

x_train = x_train.values
y_train = y_train.values

x_test = x_test.values
y_test = y_test.values

nb_classes = 10
targets = y_train.reshape(-1)
y_train_onehot = np.eye(nb_classes)[targets]

nb_classes = 10
targets = y_test.reshape(-1)
y_test_onehot = np.eye(nb_classes)[targets]

model = tf.keras.Sequential()
model.add(layers.Dense(784, input_shape=(784,), kernel_initializer='random_uniform', bias_initializer='zeros'))
model.add(layers.Dense(h1, activation='relu', kernel_regularizer=tf.keras.regularizers.l2(lambda_), kernel_initializer='random_uniform', bias_initializer='zeros'))
model.add(layers.Dense(10, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2(lambda_), kernel_initializer='random_uniform', bias_initializer='zeros'))

model.compile(optimizer='SGD',
             loss = 'mse',
             metrics = ['categorical_accuracy'])

model.fit(x_train, y_train_onehot, epochs=epochs, batch_size=batch_size)

model.evaluate(x_test, y_test_onehot, batch_size=batch_size)

prediction = model.predict_classes(x_test)
print(prediction)

print(y_test[1:])

我听说很多时候人们遇到这个问题,这只是数据输入的问题。但是我在这里看不出有什么问题,因为它几乎总是错误地预测(如果它是随机的,就和你预期的一样多)。我该如何解决这个问题?

编辑:以下是具体结果:

最后训练步骤:

Epoch 15/15
49999/49999 [==============================] - 3s 70us/sample - loss: 0.0309 - categorical_accuracy: 0.9615

评估输出:

2000/2000 [==============================] - 0s 54us/sample - loss: 0.0352 - categorical_accuracy: 0.9310
[0.03524150168523192, 0.931]

model.predict_classes 的输出:

[9 9 0 ... 5 0 5]

打印输出(y_test):

[9 0 0 7 6 8 5 1 3 2 4 1 4 5 8 4 9 2 4]
4

1 回答 1

1

首先,您的损失函数是错误的:您处于多类分类设置中,并且您使用的是适合回归而非分类 (MSE) 的损失函数。

将我们的模型编译更改为:

model.compile(loss='categorical_crossentropy',
              optimizer='SGD',
              metrics=['accuracy'])

请参阅Keras MNIST MLP 示例以获取佐证,并在What function defined accuracy in Keras when loss is mean squared error (MSE)? 中给出自己的答案?有关更多详细信息(尽管在这里您实际上遇到了逆问题,即分类设置中的回归损失)。

此外,尚不清楚您使用的 MNIST 变体是否已经标准化;如果没有,你应该自己标准化它们:

x_train = x_train.values/255
x_test = x_test.values/255

也不清楚你为什么要一个 784 单元的层,因为这实际上是你的 NN 的第二层(第一层由input_shape参数隐式设置 - 请参阅Keras Sequential 模型输入层),它当然不需要每个 784 输入特征包含一个单元。

更新(评论后):

但是为什么 MSE 对分类没有意义呢?

这是一个理论问题,并不完全适合 SO;粗略地说,这与我们不使用线性回归进行分类的原因相同——我们使用逻辑回归,两种方法之间的实际差异正是损失函数。Andrew Ng 在 Coursera 的热门机器学习课程中很好地解释了这一点 - 请参阅他的讲座 6.1 - Logistic Regression | Youtube 上的分类(解释从 ~ 3:00 开始),以及第4.2 节为什么不是线性回归 [用于分类]?Hastie、Tibshirani 和同事撰写的(强烈推荐且免费提供)教科书《统计学习导论》 。

MSE 确实提供了很高的准确度,那为什么不重要呢?

如今,几乎任何你扔给 MNIST 的东西都会“工作”,当然这既不能使它正确,也不能成为要求更高的数据集的好方法......

更新 2

每当我使用交叉熵运行时,准确度都会在 10% 左右波动

抱歉,无法重现该行为...以Keras MNIST MLP 示例和您的模型的简化版本为例,即:

model = Sequential()
model.add(Dense(784, activation='linear', input_shape=(784,)))
model.add(Dense(50, activation='relu'))
model.add(Dense(num_classes, activation='softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer=SGD(),
              metrics=['accuracy'])

我们很容易在 5 个 epoch 之后就获得了 92% 的验证准确率:

history = model.fit(x_train, y_train,
                    batch_size=128,
                    epochs=5,
                    verbose=1,
                    validation_data=(x_test, y_test))

Train on 60000 samples, validate on 10000 samples
Epoch 1/10
60000/60000 [==============================] - 4s - loss: 0.8974 - acc: 0.7801 - val_loss: 0.4650 - val_acc: 0.8823
Epoch 2/10
60000/60000 [==============================] - 4s - loss: 0.4236 - acc: 0.8868 - val_loss: 0.3582 - val_acc: 0.9034
Epoch 3/10
60000/60000 [==============================] - 4s - loss: 0.3572 - acc: 0.9009 - val_loss: 0.3228 - val_acc: 0.9099
Epoch 4/10
60000/60000 [==============================] - 4s - loss: 0.3263 - acc: 0.9082 - val_loss: 0.3024 - val_acc: 0.9156
Epoch 5/10
60000/60000 [==============================] - 4s - loss: 0.3061 - acc: 0.9132 - val_loss: 0.2845 - val_acc: 0.9196

注意activation='linear'第一个 Dense 层的,这相当于没有指定任何东西,就像你的情况一样(正如我所说,你扔给 MNIST 的几乎所有东西都会“工作”)......

最终建议:尝试将您的模型修改为:

model = tf.keras.Sequential()
model.add(layers.Dense(784, activation = 'relu',input_shape=(784,)))
model.add(layers.Dense(h1, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))

为了使用更好的(和默认的)'glorot_uniform'初始化程序,并删除kernel_regularizerargs(它们可能是任何问题的原因 -总是从简单开始!)...

于 2019-03-31T22:38:48.223 回答