1

在 CP 中运行 Cassandra 2.2.8、Win7、JDK8、Spark2、HAve thse:Cassandra core 3.12、spark-cassandra-2.11、Spark-cassandra-java-2.11、Spark2.11、spark-network-common_2.11、Guava- 16.0.jar、sacala2.11.jar 等尝试运行基本示例 -编译正常,但是当我尝试运行时 - 在第一行本身出现错误: SparkConf conf = new SparkConf(); java.lang.NoClassDefFoundError: org/spark_project/guava/cache/CacheLoader

缺少spark-network-common应该会导致此错误 - 但我确实有。有冲突的罐子吗?谢谢

4

2 回答 2

1

所以答案是:不完全知道答案,但问题已经解决了。使用 pom 并在 eclipse 中创建了一个 maven 项目。它带来了几个(十几个)罐子,终于奏效了。很可能是一些冲突/丢失的罐子——试图调查它——很难弄清楚。

于 2016-12-08T15:40:03.807 回答
0

也许您应该检查存储库。检查jar是否带有lastupdated。如果它有lastupdated,然后删除这些文件。并再次下载。

于 2021-03-27T06:54:23.330 回答