Spark參數(shù)調優(yōu):
-
num-executors
建議:一般設置50~100左右
-
executors-memory
建議:4G8G,不超過整個集群資源的1/31/2
-
executor-cores
每個Excutor進程的CPU core數(shù)量,決定了Excutor執(zhí)行task的線程的能力。
建議:2~4個較為合適,num-executors*executor-cores 不要超過cpu core的1/3~1/2左右
-
driver-memory
建議:一般1G就夠,但是如果有collect算子收集,適當調大
-
spark.default.parallelism
task數(shù)量即分區(qū)度,并行度??梢栽O置500~1000,一般為num-executors*executor-cores的2~3倍。
-
spark.storage.memoryFraction
默認是0.6,持久化操作多,設置大一些
-
spark.shuffle.memoryFraction
默認是0.2,shuffle操作多,設置大一些