2

我正在尝试将 Spark 2.0 与 Play 一起使用!2.5,但我无法使其正常工作(而且似乎 Github 上没有示例)。

我没有任何编译错误,但我有一些奇怪的执行错误。
例如:几乎所有对 aDataset或 a 的操作都会Dataframe导致 a NullPointerException

val ds: Dataset[Event] = df.as[Event]
println(ds.count()) //Works well and prints the good results
ds.collect() // --> NullPointerException

ds.show也导致一个NullPointerException.

所以我错过了一个大问题,所以我认为它来自不兼容的版本。这是我的相关部分build.sbt

object Version {
  val scala            = "2.11.8"
  val spark            = "2.0.0"
  val postgreSQL       = "9.4.1211.jre7"
}

object Library {
  val sparkSQL          = "org.apache.spark"            %% "spark-sql"          % Version.spark
  val sparkMLLib        = "org.apache.spark"            %% "spark-mllib"        % Version.spark
  val sparkCore         = "org.apache.spark"            %% "spark-core"         % Version.spark
  val postgreSQL        = "org.postgresql"              %  "postgresql"         % Version.postgreSQL
}

object Dependencies {
  import Library._

  val dependencies = Seq(
    sparkSQL,
    sparkMLLib,
    sparkCore,
    postgreSQL)
}

lazy val root = (project in file("."))
  .settings(scalaVersion := Version.scala)
  .enablePlugins(PlayScala)

libraryDependencies ++= Dependencies.dependencies

dependencyOverrides ++= Set(
  "com.fasterxml.jackson.core" % "jackson-databind" % "2.7.4",
  "com.fasterxml.jackson.module" %% "jackson-module-scala" % "2.7.4"
)
4

1 回答 1

2

我在使用 spark 2.0.0 和 play 2.5.12 java 时遇到了同样的问题。激活器似乎默认包含 com.fasterxml.jackson-databind 2.7.8,它不适用于 jackson-module-scala。

我清理了我的 sbt 缓存

rm -r ~/.ivy2/cache

我的新 build.sbt 在编译时会产生警告,因为 spark 2.0.0 是使用 jackson-module-scala_2.11:2.6.5 编译的,但仍然会触发 2 个接缝以与 jackson-module-scala 2.8.7 一起使用

scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
   "com.fasterxml.jackson.core" % "jackson-core" % "2.8.7",
   "com.fasterxml.jackson.core" % "jackson-databind" % "2.8.7",
   "com.fasterxml.jackson.core" % "jackson-annotations" % "2.8.7",
   "com.fasterxml.jackson.module" %% "jackson-module-scala" % "2.8.7",
   "org.apache.spark" % "spark-core_2.11" % "2.0.0",
   "org.apache.spark" % "spark-mllib_2.11" % "2.0.0"
)

NullpointerException 派生自 jackson.databind.JsonMappingException:不兼容 Jackson 版本:2.xx 请阅读https://github.com/FasterXML/jackson-module-scala/issues/233

于 2017-03-07T15:37:20.437 回答