0

我正在使用 spark-sql 2.4.1 和 java 8。

 val country_df = Seq(
    ("us",2001),
    ("fr",2002),
    ("jp",2002),
    ("in",2001),
    ("fr",2003),
    ("jp",2002),
    ("in",2003)
    ).toDF("country","data_yr")

> val col_df = country_df.select("country").where($"data_yr" === 2001)

    val data_df = Seq(
    ("us_state_1","fr_state_1" ,"in_state_1","jp_state_1"),
    ("us_state_2","fr_state_2" ,"in_state_2","jp_state_1"),
    ("us_state_3","fr_state_3" ,"in_state_3","jp_state_1")
    ).toDF("us","fr","in","jp")

> data_df.select("us","in").show()

如何从给定年份的 country_df 动态填充此 select 子句(data_df)?

即从第一个数据帧,我将获得列的值,这些是我需要从第二个数据帧中选择的列。如何才能做到这一点 ?

试过这个:

List<String> aa = col_df.select(functions.lower(col("data_item_code"))).map(row -> row.mkString(" ",", "," "), Encoders.STRING()).collectAsList();
 data_df.select(aa.stream().map(s -> new Column(s)).toArray(Column[]::new));

错误 :

.AnalysisException: cannot resolve '` un `' given input columns: [abc,.....all columns ...]

那么这里有什么问题,以及如何解决这个问题?

4

3 回答 3

1

您可以尝试使用以下代码。

从第一个数据集中选择列名。

List<String> columns = country_df.select("country").where($"data_yr" === 2001).as(Encoders.STRING()).collectAsList();

在第二个数据集中使用 selectexpr 中的列名。

public static Seq<String> convertListToSeq(List<String> inputList) {
        return JavaConverters.asScalaIteratorConverter(inputList.iterator()).asScala().toSeq();
}


//using selectExpr
data_df.selectExpr(convertListToSeq(columns)).show(true);
于 2020-01-09T18:31:03.107 回答
1
scala> val colname = col_df.rdd.collect.toList.map(x => x(0).toString).toSeq

scala> data_df.select(colname.head, colname.tail: _*).show()
+----------+----------+
|        us|        in|
+----------+----------+
|us_state_1|in_state_1|
|us_state_2|in_state_2|
|us_state_3|in_state_3|
+----------+----------+
于 2020-01-10T05:59:30.510 回答
1

使用数据透视,您可以像这样直接将值作为列名获取:

val selectCols = col_df.groupBy().pivot($"country").agg(lit(null)).columns
data_df.select(selectCols.head, selectCols.tail: _*)
于 2020-01-12T13:39:03.207 回答