我正在使用带有 Hipi 和 bytedeco (opencv3.2.0) 的 Spark 来处理图像!
在我的 spark 工作中,我尝试将数据加载到 PairRDD 中,然后处理这些图像(计算特征)但是当我尝试将 hipi 图像包(.hib)加载为FloatImages时出现错误!
代码 :
JavaPairRDD<HipiImageHeader,FloatImage> floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampleimages.hib",HibInputFormat.class,HipiImageHeader.class,FloatImage.class, new Configuration());
错误 :
错误:类 JavaSparkContext 中的方法 newAPIHadoopFile 不能应用于给定类型;JavaPairRDD floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampleimages.hib",HibInputFormat.class,HipiImageHeader.class,FloatImage.class, new Configuration()); ^ 必需:String,Class,Class,Class,Configuration 找到:String,Class,Class,Class,Configuration 原因:推断类型不符合等式约束 推断:HipiImage 等式约束:HipiImage,FloatImage where F ,K,V 是类型变量: F 扩展方法 newAPIHadoopFile(String,Class,Class,Class,Configuration) 中声明的 InputFormat K 扩展方法 newAPIHadoopFile(String,Class,Class,Class,
当我将它们加载为HipiImages时,我没有收到此错误!但我不知道如何从 hipi Image 中获取数据,因为此类中没有 getData() 和 getPixelArray() 方法。
你们谁能告诉我如何从这个 HipiImage 获取数据?或者对于已经将 Spark 与 HIPI 和 bytedeco api 一起使用的人,他们是如何做到的?