这是一个使用 scala 的示例...
如果您直接在 Analytics Engine 集群上运行 spark,请跳过前两个步骤。
创建一个 Watson Studio 项目并与一个分析引擎服务关联。
创建一个使用 Analytics Engine Spark 服务的 scala Notebook
输入以下 scala 代码以检索 HiveContext 并列出 Hive 数据库(如果有)
import org.apache.spark.sql.hive.HiveContext
val hc = new HiveContext(sc)
// uncomment and adjust the next line if you are using
// Compose mysql for the hive metastore
/*
hc.setConf("hive.metastore.warehouse.dir",
"mysql://admin:password@sl-us-south-1-portal.13.dblayer.com:32023/compose");
*/
import hc.implicits._
val df = hc.sql("show databases")
df.show
- 从静态值创建数据框以进行测试
val test_df = Seq(
(8, "bat"),
(64, "mouse"),
(-27, "horse")
).toDF("number", "word");
- 写入数据框
test_df.write.mode("overwrite").saveAsTable("src");
- 现在验证您是否能够从 spark 读取表格
val read_df = hc.sql("select * from src")
read_df.show
- 打开一个 hive 会话并验证您可以从 hive 查询表
select * from src