0

我有一个用于将 Spark 数据帧数据放入 Hive 的应用程序。

第一次,应用程序使用 100 个内核和 10 GB 内存在泄漏大量 32 Mb 块后产生此 OutOfMemory 错误。

这个 OutOfMemory 错误

之后,我使用 100 个内核和 20GB 内存运行应用程序,获得不同的泄漏大小(64 Mb),然后出现相同的 OutOfMemory 错误:

同样的 OutOfMemory 错误

谁能帮我理解这种行为?

4

0 回答 0