71

tensorflow 是否有类似于 scikit learn 的一种用于处理分类数据的热门编码器?使用 tf.string 的占位符会表现为分类数据吗?

我意识到我可以在将数据发送到 tensorflow 之前手动预处理数据,但是内置它非常方便。

4

15 回答 15

67

从 TensorFlow 0.8 开始,现在有一个原生的 one-hot 操作,tf.one_hot可以将一组稀疏标签转换为密集的 one-hot 表示。这是对 的补充tf.nn.sparse_softmax_cross_entropy_with_logits,在某些情况下,它可以让您直接在稀疏标签上计算交叉熵,而不是将它们转换为 one-hot。

以前的答案,如果您想以旧方式进行操作: @Salvador 的答案是正确的-(曾经)没有本地操作可以这样做。但是,您可以使用 sparse-to-dense 运算符在 tensorflow 中本地执行,而不是在 numpy 中执行此操作:

num_labels = 10

# label_batch is a tensor of numeric labels to process
# 0 <= label < num_labels

sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(label_batch)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.pack([derived_size, num_labels])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)

输出标签是 batch_size x num_labels 的 one-hot 矩阵。

另请注意,截至 2016 年 2 月 12 日(我假设最终将成为 0.7 版本的一部分),TensorFlow 也具有tf.nn.sparse_softmax_cross_entropy_with_logits操作,在某些情况下,它可以让您进行训练,而无需转换为单热编码。

编辑添加:最后,您可能需要明确设置标签的形状。形状推断无法识别 num_labels 组件的大小。如果您不需要带derived_size 的动态批量大小,则可以简化。

于 2016 年 2 月 12 日编辑,以更改下面每条评论的外型分配。

于 2015-11-12T21:57:38.037 回答
52

tf.one_hot()在 TF 中可用并且易于使用。

假设您有 4 个可能的类别(猫、狗、鸟、人类)和 2 个实例(猫、人类)。所以你depth=4和你的indices=[0, 3]

import tensorflow as tf
res = tf.one_hot(indices=[0, 3], depth=4)
with tf.Session() as sess:
    print sess.run(res)

请记住,如果您提供 index=-1 您将在 one-hot 向量中得到全零。

旧答案,当此功能不可用时。

在查看了python 文档之后,我没有发现任何类似的东西。加强我相信它不存在的一件事是,在他们自己的例子one_hot中,他们是手动编写的。

def dense_to_one_hot(labels_dense, num_classes=10):
  """Convert class labels from scalars to one-hot vectors."""
  num_labels = labels_dense.shape[0]
  index_offset = numpy.arange(num_labels) * num_classes
  labels_one_hot = numpy.zeros((num_labels, num_classes))
  labels_one_hot.flat[index_offset + labels_dense.ravel()] = 1
  return labels_one_hot

您也可以在scikitlearn中执行此操作。

于 2015-11-12T21:28:56.683 回答
18

numpy可以!

import numpy as np
np.eye(n_labels)[target_vector]
于 2016-10-16T06:22:42.743 回答
8

一种对任何整数或整数列表进行一次性编码的简单而简短的方法:

a = 5 
b = [1, 2, 3]
# one hot an integer
one_hot_a = tf.nn.embedding_lookup(np.identity(10), a)
# one hot a list of integers
one_hot_b = tf.nn.embedding_lookup(np.identity(max(b)+1), b)
于 2016-08-16T19:00:34.220 回答
6

TensorFlow 的最新版本(nightlies 甚至可能是 0.7.1)有一个名为 tf.one_hot 的操作,可以满足您的需求。看看这个!

另一方面,如果你有一个密集矩阵并且你想在其中查找和聚合值,你会想要使用 embedding_lookup 函数。

于 2016-03-09T20:53:13.020 回答
4

也许是由于自 2015 年 11 月以来对 Tensorflow 的更改,但@dga 的回答产生了错误。我确实让它与以下修改一起工作:

sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(sparse_labels)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.concat(0, [tf.reshape(derived_size, [1]), tf.reshape(num_labels, [1])])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)
于 2016-02-06T02:18:56.697 回答
2

看看tf.nn.embedding_lookup。它从分类 ID 映射到它们的嵌入。

有关如何将其用于输入数据的示例,请参见此处

于 2015-11-19T17:26:19.417 回答
2

您可以使用tf.sparse_to_dense

sparse_indices 参数指示应该去哪里, output_shape 应该设置为可能输出的数量(例如标签的数量),并且 sparse_values 应该是 1 与所需的类型(它将根据类型确定输出的类型稀疏值)。

于 2016-02-06T02:30:49.510 回答
2

Scikit Flow 中有embedding_ops和处理分类变量的示例等。

如果您刚开始学习 TensorFlow,我建议您先尝试TensorFlow/skflow中的示例,然后在您更熟悉 TensorFlow 后,您可以很容易地插入 TensorFlow 代码来构建您想要的自定义模型(有也是这方面的例子)。

希望这些图像和文本理解示例可以帮助您入门,如果您遇到任何问题,请告诉我们!(在 SO 中发布问题或标记 skflow)。

于 2016-02-17T03:57:23.163 回答
1

当前版本的 tensorflow 实现了以下用于创建 one-hot 张量的函数:

https://www.tensorflow.org/versions/master/api_docs/python/array_ops.html#one_hot

于 2016-06-05T09:41:53.467 回答
1

正如@dga 上面提到的,Tensorflow现在有tf.one_hot

labels = tf.constant([5,3,2,4,1])
highest_label = tf.reduce_max(labels)
labels_one_hot = tf.one_hot(labels, highest_label + 1)

array([[ 0.,  0.,  0.,  0.,  0.,  1.],
       [ 0.,  0.,  0.,  1.,  0.,  0.],
       [ 0.,  0.,  1.,  0.,  0.,  0.],
       [ 0.,  0.,  0.,  0.,  1.,  0.],
       [ 0.,  1.,  0.,  0.,  0.,  0.]], dtype=float32)

您需要指定深度,否则您将得到一个修剪过的 one-hot 张量。

如果您喜欢手动操作:

labels = tf.constant([5,3,2,4,1])
size = tf.shape(labels)[0]
highest_label = tf.reduce_max(labels)
labels_t = tf.reshape(labels, [-1, 1])
indices = tf.reshape(tf.range(size), [-1, 1])
idx_with_labels = tf.concat([indices, labels_t], 1)
labels_one_hot = tf.sparse_to_dense(idx_with_labels, [size, highest_label + 1], 1.0)

array([[ 0.,  0.,  0.,  0.,  0.,  1.],
       [ 0.,  0.,  0.,  1.,  0.,  0.],
       [ 0.,  0.,  1.,  0.,  0.,  0.],
       [ 0.,  0.,  0.,  0.,  1.,  0.],
       [ 0.,  1.,  0.,  0.,  0.,  0.]], dtype=float32)

注意 tf.concat() 中的参数顺序

于 2017-07-04T16:58:45.667 回答
0

有几种方法可以做到这一点。

ans = tf.constant([[5, 6, 0, 0], [5, 6, 7, 0]]) #batch_size*max_seq_len
labels = tf.reduce_sum(tf.nn.embedding_lookup(np.identity(10), ans), 1)

>>> [[ 0.  0.  0.  0.  0.  1.  1.  0.  0.  0.]
>>> [ 0.  0.  0.  0.  0.  1.  1.  1.  0.  0.]]

另一种方法是。

labels2 = tf.reduce_sum(tf.one_hot(ans, depth=10, on_value=1, off_value=0, axis=1), 2)

 >>> [[0 0 0 0 0 1 1 0 0 0]
 >>> [0 0 0 0 0 1 1 1 0 0]]
于 2016-12-02T23:55:55.103 回答
0

我的@CFB 和@dga 示例版本缩短了一点以便于理解。

num_labels = 10
labels_batch = [2, 3, 5, 9]

sparse_labels = tf.reshape(labels_batch, [-1, 1])
derived_size = len(labels_batch)
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels]) 
labels = tf.sparse_to_dense(concated, [derived_size, num_labels], 1.0, 0.0)
于 2017-01-21T07:38:24.717 回答
0
In [7]: one_hot = tf.nn.embedding_lookup(np.eye(5), [1,2])

In [8]: one_hot.eval()
Out[8]: 
array([[ 0.,  1.,  0.,  0.,  0.],
       [ 0.,  0.,  1.,  0.,  0.]])

适用于 TF 版本 1.3.0。截至 2017 年 9 月。

于 2017-09-27T06:53:20.747 回答
0

Tensorflow 2.0 兼容答案:您可以使用Tensorflow Transform.

执行 One-Hot Encoding 的代码Tensorflow Transform如下所示:

def get_feature_columns(tf_transform_output):
  """Returns the FeatureColumns for the model.

  Args:
    tf_transform_output: A `TFTransformOutput` object.

  Returns:
    A list of FeatureColumns.
  """
  # Wrap scalars as real valued columns.
  real_valued_columns = [tf.feature_column.numeric_column(key, shape=())
                         for key in NUMERIC_FEATURE_KEYS]

  # Wrap categorical columns.
  one_hot_columns = [
      tf.feature_column.categorical_column_with_vocabulary_file(
          key=key,
          vocabulary_file=tf_transform_output.vocabulary_file_by_name(
              vocab_filename=key))
      for key in CATEGORICAL_FEATURE_KEYS]

  return real_valued_columns + one_hot_columns

有关更多信息,请参阅TF_Transform 教程

于 2020-01-10T06:17:59.263 回答