11

为什么nullable = true在执行某些函数后使用,即使DataFrame.

val myDf = Seq((2,"A"),(2,"B"),(1,"C"))
         .toDF("foo","bar")
         .withColumn("foo", 'foo.cast("Int"))

myDf.withColumn("foo_2", when($"foo" === 2 , 1).otherwise(0)).select("foo", "foo_2").show

现在何时df.printSchema调用nullablefalse用于两列。

val foo: (Int => String) = (t: Int) => {
    fooMap.get(t) match {
      case Some(tt) => tt
      case None => "notFound"
    }
  }

val fooMap = Map(
    1 -> "small",
    2 -> "big"
 )
val fooUDF = udf(foo)

myDf
    .withColumn("foo", fooUDF(col("foo")))
    .withColumn("foo_2", when($"foo" === 2 , 1).otherwise(0)).select("foo", "foo_2")
    .select("foo", "foo_2")
    .printSchema

但是现在,至少是以前的一nullable列。这怎么解释?truefalse

4

2 回答 2

11

Dataset从静态类型结构(不依赖于参数)创建时, schemaSpark 使用一组相对简单的规则来确定nullable属性。

  • 如果给定类型的对象可以是,null那么它的DataFrame表示是nullable.
  • 如果 object 是 anOption[_]那么它的DataFrame表示被nullable认为None是 SQL NULL
  • 在任何其他情况下,它将被标记为 not nullable

由于 ScalaStringjava.lang.String, which can be null, 生成的列 can 是nullable. 出于同样的原因,barnullable在初始数据集中:

val data1 = Seq[(Int, String)]((2, "A"), (2, "B"), (1, "C"))
val df1 = data1.toDF("foo", "bar")
df1.schema("bar").nullable
Boolean = true

foo不是(scala.Int不可能null)。

df1.schema("foo").nullable
Boolean = false

如果我们将数据定义更改为:

val data2 = Seq[(Integer, String)]((2, "A"), (2, "B"), (1, "C"))

foo将是nullableIntegerjava.lang.Integer和装箱的整数可以是null):

data2.toDF("foo", "bar").schema("foo").nullable
Boolean = true

另请参阅:SPARK-20668 修改 ScalaUDF 以处理可空性

于 2016-11-15T07:04:06.910 回答
2

您也可以非常快速地更改数据框的架构。像这样的东西可以完成这项工作 -

def setNullableStateForAllColumns( df: DataFrame, columnMap: Map[String, Boolean]) : DataFrame = {
    import org.apache.spark.sql.types.{StructField, StructType}
    // get schema
    val schema = df.schema
    val newSchema = StructType(schema.map {
    case StructField( c, d, n, m) =>
      StructField( c, d, columnMap.getOrElse(c, default = n), m)
    })
    // apply new schema
    df.sqlContext.createDataFrame( df.rdd, newSchema )
}
于 2018-04-18T20:41:48.867 回答