আমার ক্লাস্টার: 1 মাস্টার, 11 ক্রীতদাস, প্রতিটি নোডে 6 জিবি মেমরি রয়েছে।
আমার সেটিংস:
spark.executor.memory=4g, Dspark.akka.frameSize=512
সমস্যাটি এখানে:
প্রথমত , আমি এইচডিএফএস থেকে আরডিডি থেকে কিছু ডেটা (২.১৯ গিগাবাইট) পড়েছি:
val imageBundleRDD = sc.newAPIHadoopFile(...)
দ্বিতীয়ত , এই আরডিডিতে কিছু করুন:
val res = imageBundleRDD.map(data => {
val desPoints = threeDReconstruction(data._2, bg)
(data._1, desPoints)
})
শেষ , এইচডিএফএস এ আউটপুট:
res.saveAsNewAPIHadoopFile(...)
আমি যখন আমার প্রোগ্রামটি চালিত করি তখন এটি দেখায়:
.....
14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Starting task 1.0:24 as TID 33 on executor 9: Salve7.Hadoop (NODE_LOCAL)
14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Serialized task 1.0:24 as 30618515 bytes in 210 ms
14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Starting task 1.0:36 as TID 34 on executor 2: Salve11.Hadoop (NODE_LOCAL)
14/01/15 21:42:28 INFO cluster.ClusterTaskSetManager: Serialized task 1.0:36 as 30618515 bytes in 449 ms
14/01/15 21:42:28 INFO cluster.ClusterTaskSetManager: Starting task 1.0:32 as TID 35 on executor 7: Salve4.Hadoop (NODE_LOCAL)
Uncaught error from thread [spark-akka.actor.default-dispatcher-3] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[spark]
java.lang.OutOfMemoryError: Java heap space
অনেক কাজ আছে?
PS : ইনপুট ডেটা প্রায় 225 মেগাবাইট থাকা অবস্থায় প্রতিটি জিনিসই ঠিক থাকে।
কিভাবে আমি এই সমস্যার সমাধান করতে পারে?