我是 Apache Spark 的新手,我开始学习 Scala 和 Spark。在此代码片段中,Spark 是否在程序完成后处理关闭文本文件?
val rdd = context.textFile(filePath)
我知道在 Java 中,当你打开一个文件时,你必须使用 try-catch-finally 或 try-with-resources 来关闭它。
在这个例子中,我提到了一个文本文件,但我想知道 Spark 是否会在资源完成后处理关闭资源,因为 RDD 可以采用多种不同类型的数据集。