解決方案一:使用Hive ETL預(yù)處理數(shù)據(jù)
方案適用場景:導(dǎo)致數(shù)據(jù)傾斜的是Hive表。如果該Hive表中的數(shù)據(jù)本身很不均勻(比如某個key對應(yīng)了100萬數(shù)據(jù),其他key才對應(yīng)了10條數(shù)據(jù)),而且業(yè)務(wù)場景需要頻繁使用Spark對Hive表執(zhí)行某個分析操作,那么比較適合使用這種技術(shù)方案。
方案實現(xiàn)思路:此時可以評估一下,是否可以通過Hive來進(jìn)行數(shù)據(jù)預(yù)處理(即通過Hive ETL預(yù)先對數(shù)據(jù)按照key進(jìn)行聚合,或者是預(yù)先和其他表進(jìn)行join),然后在Spark作業(yè)中針對的數(shù)據(jù)源就不是原來的Hive表了,而是預(yù)處理后的 Hive表。此時由于數(shù)據(jù)已經(jīng)預(yù)先進(jìn)行過聚合或join操作了,那么在Spark作業(yè)中也就不需要使用原先的shuffle類算子執(zhí)行這類操作了。
方案實現(xiàn)原理:這種方案從根源上解決了數(shù)據(jù)傾斜,因為徹底避免了在Spark中執(zhí)行shuffle類算子,那么 肯定就不會有數(shù)據(jù)傾斜的問題了。但是這里也要提醒一下大家,這種方式屬于治標(biāo)不治本。因為畢竟數(shù)據(jù)本身就存在分布不均勻的問題,所以Hive ETL中進(jìn)行g(shù)roup by或者join等shuffle操作時,還是會出現(xiàn)數(shù)據(jù)傾斜,導(dǎo)致Hive ETL的速度很慢。我們只是把數(shù)據(jù)傾斜的發(fā)生提前到了Hive ETL中,避免Spark程序發(fā)生數(shù)據(jù)傾斜而已。
方案優(yōu)點:實現(xiàn)起來簡單便捷,效果還非常好,完全規(guī)避掉了數(shù)據(jù)傾斜,Spark作業(yè)的性能會大幅度提升。
方案缺點:治標(biāo)不治本,Hive ETL中還是會發(fā)生數(shù)據(jù)傾斜。
方案實踐經(jīng)驗:在一些Java系統(tǒng)與Spark結(jié)合使用的項目中,會出現(xiàn)Java代碼頻繁調(diào)用Spark作業(yè)的 場景,而且對Spark作業(yè)的執(zhí)行性能要求很高,就比較適合使用這種方案。將數(shù)據(jù)傾斜提前到上游的Hive ETL,每天僅執(zhí)行一次,只有那一次是比較慢的,而之后每次Java調(diào)用Spark作業(yè)時,執(zhí)行速度都會很快,能夠提供更好的用戶體驗。
項目實踐經(jīng)驗:在美團·點評的交互式用戶行為分析系統(tǒng)中使用了這種方案,該系統(tǒng)主要是允許用戶通過Java Web系統(tǒng)提交數(shù)據(jù)分析統(tǒng)計任務(wù),后端通過Java提交Spark作業(yè)進(jìn)行數(shù)據(jù)分析統(tǒng)計。要求Spark作業(yè)速度必須要快,盡量在10分鐘以內(nèi),否則速度 太慢,用戶體驗會很差。所以我們將有些Spark作業(yè)的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預(yù)處理的Hive中間表,盡可能地減少Spark的shuffle操作,大幅度提升了性能,將部分作業(yè)的性能提升了6 倍以上。
解決方案二:過濾少數(shù)導(dǎo)致傾斜的key
方案適用場景:如果發(fā)現(xiàn)導(dǎo)致傾斜的key就少數(shù)幾個,而且對計算本身的影響并不大的話,那么很適合使用這種方案。比如99%的key就對應(yīng)10條數(shù)據(jù),但是只有一個key對應(yīng)了100萬數(shù)據(jù),從而導(dǎo)致了數(shù)據(jù)傾斜。
方案實現(xiàn)思路:如果我們判斷那少數(shù)幾個數(shù)據(jù)量特別多的key,對作業(yè)的執(zhí)行和計算結(jié)果不是特別重要的話,那么干 脆就直接過濾掉那少數(shù)幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執(zhí)行filter算子過濾掉這些key。如果需要每次作業(yè)執(zhí)行時,動態(tài)判定哪些key的數(shù)據(jù)量最多然后再進(jìn)行過濾,那么可以使用 sample算子對RDD進(jìn)行采樣,然后計算出每個key的數(shù)量,取數(shù)據(jù)量最多的key過濾掉即可。
方案實現(xiàn)原理:將導(dǎo)致數(shù)據(jù)傾斜的key給過濾掉之后,這些key就不會參與計算了,自然不可能產(chǎn)生數(shù)據(jù)傾斜。
方案優(yōu)點:實現(xiàn)簡單,而且效果也很好,可以完全規(guī)避掉數(shù)據(jù)傾斜。
方案缺點:適用場景不多,大多數(shù)情況下,導(dǎo)致傾斜的key還是很多的,并不是只有少數(shù)幾個。
方案實踐經(jīng)驗:在項目中我們也采用過這種方案解決數(shù)據(jù)傾斜。有一次發(fā)現(xiàn)某一天Spark作業(yè)在運行的時候突然 OOM了,追查之后發(fā)現(xiàn),是Hive表中的某一個key在那天數(shù)據(jù)異常,導(dǎo)致數(shù)據(jù)量暴增。因此就采取每次執(zhí)行前先進(jìn)行采樣,計算出樣本中數(shù)據(jù)量最大的幾個 key之后,直接在程序中將那些key給過濾掉。
解決方案三:提高shuffle操作的并行度
方案適用場景:如果我們必須要對數(shù)據(jù)傾斜迎難而上,那么建議優(yōu)先使用這種方案,因為這是處理數(shù)據(jù)傾斜最簡單的一種方案。
方案實現(xiàn)思路:在對RDD執(zhí)行shuffle算子時,給shuffle算子傳入一個參數(shù),比如 reduceByKey(1000),該參數(shù)就設(shè)置了這個shuffle算子執(zhí)行時shuffle read task的數(shù)量。對于Spark SQL中的shuffle類語句,比如group by、join等,需要設(shè)置一個參數(shù),即spark.sql.shuffle.partitions,該參數(shù)代表了shuffle read task的并行度,該值默認(rèn)是200,對于很多場景來說都有點過小。
方案實現(xiàn)原理:增加shuffle read task的數(shù)量,可以讓原本分配給一個task的多個key分配給多個task,從而讓每個task處理比原來更少的數(shù)據(jù)。舉例來說,如果原本有5個 key,每個key對應(yīng)10條數(shù)據(jù),這5個key都是分配給一個task的,那么這個task就要處理50條數(shù)據(jù)。而增加了shuffle read task以后,每個task就分配到一個key,即每個task就處理10條數(shù)據(jù),那么自然每個task的執(zhí)行時間都會變短了。具體原理如下圖所示。
方案優(yōu)點:實現(xiàn)起來比較簡單,可以有效緩解和減輕數(shù)據(jù)傾斜的影響。
方案缺點:只是緩解了數(shù)據(jù)傾斜而已,沒有徹底根除問題,根據(jù)實踐經(jīng)驗來看,其效果有限。
方案實踐經(jīng)驗:該方案通常無法徹底解決數(shù)據(jù)傾斜,因為如果出現(xiàn)一些極端情況,比如某個key對應(yīng)的數(shù)據(jù)量有 100萬,那么無論你的task數(shù)量增加到多少,這個對應(yīng)著100萬數(shù)據(jù)的key肯定還是會分配到一個task中去處理,因此注定還是會發(fā)生數(shù)據(jù)傾斜的。 所以這種方案只能說是在發(fā)現(xiàn)數(shù)據(jù)傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解數(shù)據(jù)傾斜而已,或者是和其他方案結(jié)合起來使用。

解決方案四:兩階段聚合(局部聚合+全局聚合)
方案適用場景:對RDD執(zhí)行reduceByKey等聚合類shuffle算子或者在Spark SQL中使用group by語句進(jìn)行分組聚合時,比較適用這種方案。
方案實現(xiàn)思路:這個方案的核心實現(xiàn)思路就是進(jìn)行兩階段聚合。第一次是局部聚合,先給每個key都打上一個隨機 數(shù),比如10以內(nèi)的隨機數(shù),此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接著對打上隨機數(shù)后的數(shù)據(jù),執(zhí)行reduceByKey等聚合操作,進(jìn)行局部聚合,那么局部聚合結(jié)果,就會變成了(1_hello, 2) (2_hello, 2)。然后將各個key的前綴給去掉,就會變成(hello,2)(hello,2),再次進(jìn)行全局聚合操作,就可以得到最終結(jié)果了,比如(hello, 4)。
方案實現(xiàn)原理:將原本相同的key通過附加隨機前綴的方式,變成多個不同的key,就可以讓原本被一個task處理的數(shù)據(jù)分散到多個task上去做局部聚合,進(jìn)而解決單個task處理數(shù)據(jù)量過多的問題。接著去除掉隨機前綴,再次進(jìn)行全局聚合,就可以得到最終的結(jié)果。具體原理見下圖。
方案優(yōu)點:對于聚合類的shuffle操作導(dǎo)致的數(shù)據(jù)傾斜,效果是非常不錯的。通常都可以解決掉數(shù)據(jù)傾斜,或者至少是大幅度緩解數(shù)據(jù)傾斜,將Spark作業(yè)的性能提升數(shù)倍以上。
方案缺點:僅僅適用于聚合類的shuffle操作,適用范圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。

// 第一步,給RDD中的每個key都打上一個隨機前綴。
JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,Long>, String, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<String, Long> call(Tuple2<Long, Long> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? Random random = new Random();
? ? ? ? ? ? ? ? int prefix = random.nextInt(10);
? ? ? ? ? ? ? ? return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2);
? ? ? ? ? ? }
? ? ? ? });
// 第二步,對打上隨機前綴的key進(jìn)行局部聚合。
JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey(
? ? ? ? new Function2<Long, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Long call(Long v1, Long v2) throws Exception {
? ? ? ? ? ? ? ? return v1 + v2;
? ? ? ? ? ? }
? ? ? ? });
// 第三步,去除RDD中每個key的隨機前綴。
JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair(
? ? ? ? new PairFunction<Tuple2<String,Long>, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<Long, Long> call(Tuple2<String, Long> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? long originalKey = Long.valueOf(tuple._1.split("_")[1]);
? ? ? ? ? ? ? ? return new Tuple2<Long, Long>(originalKey, tuple._2);
? ? ? ? ? ? }
? ? ? ? });
// 第四步,對去除了隨機前綴的RDD進(jìn)行全局聚合。
JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey(
? ? ? ? new Function2<Long, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Long call(Long v1, Long v2) throws Exception {
? ? ? ? ? ? ? ? return v1 + v2;
? ? ? ? ? ? }
? ? ? ? });
解決方案五:將reduce join轉(zhuǎn)為map join
方案適用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的數(shù)據(jù)量比較?。ū热鐜装費或者一兩G),比較適用此方案。
方案實現(xiàn)思路:不使用join算子進(jìn)行連接操作,而使用Broadcast變量與map類算子實現(xiàn)join操 作,進(jìn)而完全規(guī)避掉shuffle類的操作,徹底避免數(shù)據(jù)傾斜的發(fā)生和出現(xiàn)。將較小RDD中的數(shù)據(jù)直接通過collect算子拉取到Driver端的內(nèi)存 中來,然后對其創(chuàng)建一個Broadcast變量;接著對另外一個RDD執(zhí)行map類算子,在算子函數(shù)內(nèi),從Broadcast變量中獲取較小RDD的全量 數(shù)據(jù),與當(dāng)前RDD的每一條數(shù)據(jù)按照連接key進(jìn)行比對,如果連接key相同的話,那么就將兩個RDD的數(shù)據(jù)用你需要的方式連接起來。
方案實現(xiàn)原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當(dāng)于會將相同key的數(shù) 據(jù)拉取到一個shuffle read task中再進(jìn)行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以采用廣播小RDD全量數(shù)據(jù)+map算子來實現(xiàn)與join同樣的效果,也就是map join,此時就不會發(fā)生shuffle操作,也就不會發(fā)生數(shù)據(jù)傾斜。具體原理如下圖所示。
方案優(yōu)點:對join操作導(dǎo)致的數(shù)據(jù)傾斜,效果非常好,因為根本就不會發(fā)生shuffle,也就根本不會發(fā)生數(shù)據(jù)傾斜。
方案缺點:適用場景較少,因為這個方案只適用于一個大表和一個小表的情況。畢竟我們需要將小表進(jìn)行廣播,此時會 比較消耗內(nèi)存資源,driver和每個Executor內(nèi)存中都會駐留一份小RDD的全量數(shù)據(jù)。如果我們廣播出去的RDD數(shù)據(jù)比較大,比如10G以上,那 么就可能發(fā)生內(nèi)存溢出了。因此并不適合兩個都是大表的情況。

// 首先將數(shù)據(jù)量比較小的RDD的數(shù)據(jù),collect到Driver中來。
List<Tuple2<Long, Row>> rdd1Data = rdd1.collect()
// 然后使用Spark的廣播功能,將小RDD的數(shù)據(jù)轉(zhuǎn)換成廣播變量,這樣每個Executor就只有一份RDD的數(shù)據(jù)。
// 可以盡可能節(jié)省內(nèi)存空間,并且減少網(wǎng)絡(luò)傳輸性能開銷。
final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data);
// 對另外一個RDD執(zhí)行map類操作,而不再是join類操作。
JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? // 在算子函數(shù)中,通過廣播變量,獲取到本地Executor中的rdd1數(shù)據(jù)。
? ? ? ? ? ? ? ? List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value();
? ? ? ? ? ? ? ? // 可以將rdd1的數(shù)據(jù)轉(zhuǎn)換為一個Map,便于后面進(jìn)行join操作。
? ? ? ? ? ? ? ? Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>();
? ? ? ? ? ? ? ? for(Tuple2<Long, Row> data : rdd1Data) {
? ? ? ? ? ? ? ? ? ? rdd1DataMap.put(data._1, data._2);
? ? ? ? ? ? ? ? }
? ? ? ? ? ? ? ? // 獲取當(dāng)前RDD數(shù)據(jù)的key以及value。
? ? ? ? ? ? ? ? String key = tuple._1;
? ? ? ? ? ? ? ? String value = tuple._2;
? ? ? ? ? ? ? ? // 從rdd1數(shù)據(jù)Map中,根據(jù)key獲取到可以join到的數(shù)據(jù)。
? ? ? ? ? ? ? ? Row rdd1Value = rdd1DataMap.get(key);
? ? ? ? ? ? ? ? return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value));
? ? ? ? ? ? }
? ? ? ? });
// 這里得提示一下。
// 上面的做法,僅僅適用于rdd1中的key沒有重復(fù),全部是唯一的場景。
// 如果rdd1中有多個相同的key,那么就得用flatMap類的操作,在進(jìn)行join的時候不能用map,而是得遍歷rdd1所有數(shù)據(jù)進(jìn)行join。
// rdd2中每條數(shù)據(jù)都可能會返回多條join后的數(shù)據(jù)。
解決方案六:采樣傾斜key并分拆join操作
方案適用場景:兩個RDD/Hive表進(jìn)行join的時候,如果數(shù)據(jù)量都比較大,無法采用“解決方案五”,那么 此時可以看一下兩個RDD/Hive表中的key分布情況。如果出現(xiàn)數(shù)據(jù)傾斜,是因為其中某一個RDD/Hive表中的少數(shù)幾個key的數(shù)據(jù)量過大,而另 一個RDD/Hive表中的所有key都分布比較均勻,那么采用這個解決方案是比較合適的。
方案實現(xiàn)思路:
對包含少數(shù)幾個數(shù)據(jù)量過大的key的那個RDD,通過sample算子采樣出一份樣本來,然后統(tǒng)計一下每個key的數(shù)量,計算出來數(shù)據(jù)量最大的是哪幾個key。
然后將這幾個key對應(yīng)的數(shù)據(jù)從原來的RDD中拆分出來,形成一個單獨的RDD,并給每個key都打上n以內(nèi)的隨機數(shù)作為前綴,而不會導(dǎo)致傾斜的大部分key形成另外一個RDD。
接著將需要join的另一個RDD,也過濾出來那幾個傾斜key對應(yīng)的數(shù)據(jù)并形成一個單獨的RDD,將每條數(shù)據(jù)膨脹成n條數(shù)據(jù),這n條數(shù)據(jù)都按順序附加一個0~n的前綴,不會導(dǎo)致傾斜的大部分key也形成另外一個RDD。
再將附加了隨機前綴的獨立RDD與另一個膨脹n倍的獨立RDD進(jìn)行join,此時就可以將原先相同的key打散成n份,分散到多個task中去進(jìn)行join了。
而另外兩個普通的RDD就照常join即可。
最后將兩次join的結(jié)果使用union算子合并起來即可,就是最終的join結(jié)果。
方案實現(xiàn)原理:對于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個key導(dǎo)致了傾斜,可以將少數(shù)幾個key分拆成獨立RDD,并附加隨機前綴打散成n份去進(jìn)行join,此時這幾個key對應(yīng)的數(shù)據(jù)就不會集中在少數(shù)幾個task上,而是分散到多個task進(jìn)行join了。具體原理見下圖。
方案優(yōu)點:對于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個key導(dǎo)致了傾斜,采用該方式可以用最有效的方式打散key進(jìn)行join。而且只需要針對少數(shù)傾斜key對應(yīng)的數(shù)據(jù)進(jìn)行擴容n倍,不需要對全量數(shù)據(jù)進(jìn)行擴容。避免了占用過多內(nèi)存。
方案缺點:如果導(dǎo)致傾斜的key特別多的話,比如成千上萬個key都導(dǎo)致數(shù)據(jù)傾斜,那么這種方式也不適合。

// 首先從包含了少數(shù)幾個導(dǎo)致數(shù)據(jù)傾斜key的rdd1中,采樣10%的樣本數(shù)據(jù)。
JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1);
// 對樣本數(shù)據(jù)RDD統(tǒng)計出每個key的出現(xiàn)次數(shù),并按出現(xiàn)次數(shù)降序排序。
// 對降序排序后的數(shù)據(jù),取出top 1或者top 100的數(shù)據(jù),也就是key最多的前n個數(shù)據(jù)。
// 具體取出多少個數(shù)據(jù)量最多的key,由大家自己決定,我們這里就取1個作為示范。
JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,String>, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<Long, Long> call(Tuple2<Long, String> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? return new Tuple2<Long, Long>(tuple._1, 1L);
? ? ? ? ? ? }? ?
? ? ? ? });
JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey(
? ? ? ? new Function2<Long, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Long call(Long v1, Long v2) throws Exception {
? ? ? ? ? ? ? ? return v1 + v2;
? ? ? ? ? ? }
? ? ? ? });
JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,Long>, Long, Long>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? return new Tuple2<Long, Long>(tuple._2, tuple._1);
? ? ? ? ? ? }
? ? ? ? });
final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2;
// 從rdd1中分拆出導(dǎo)致數(shù)據(jù)傾斜的key,形成獨立的RDD。
JavaPairRDD<Long, String> skewedRDD = rdd1.filter(
? ? ? ? new Function<Tuple2<Long,String>, Boolean>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Boolean call(Tuple2<Long, String> tuple) throws Exception {
? ? ? ? ? ? ? ? return tuple._1.equals(skewedUserid);
? ? ? ? ? ? }
? ? ? ? });
// 從rdd1中分拆出不導(dǎo)致數(shù)據(jù)傾斜的普通key,形成獨立的RDD。
JavaPairRDD<Long, String> commonRDD = rdd1.filter(
? ? ? ? new Function<Tuple2<Long,String>, Boolean>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Boolean call(Tuple2<Long, String> tuple) throws Exception {
? ? ? ? ? ? ? ? return !tuple._1.equals(skewedUserid);
? ? ? ? ? ? }
? ? ? ? });
// rdd2,就是那個所有key的分布相對較為均勻的rdd。
// 這里將rdd2中,前面獲取到的key對應(yīng)的數(shù)據(jù),過濾出來,分拆成單獨的rdd,并對rdd中的數(shù)據(jù)使用flatMap算子都擴容100倍。
// 對擴容的每條數(shù)據(jù),都打上0~100的前綴。
JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter(
? ? ? ? ?new Function<Tuple2<Long,Row>, Boolean>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Boolean call(Tuple2<Long, Row> tuple) throws Exception {
? ? ? ? ? ? ? ? return tuple._1.equals(skewedUserid);
? ? ? ? ? ? }
? ? ? ? }).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Iterable<Tuple2<String, Row>> call(
? ? ? ? ? ? ? ? ? ? Tuple2<Long, Row> tuple) throws Exception {
? ? ? ? ? ? ? ? Random random = new Random();
? ? ? ? ? ? ? ? List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
? ? ? ? ? ? ? ? for(int i = 0; i < 100; i++) {
? ? ? ? ? ? ? ? ? ? list.add(new Tuple2<String, Row>(i + "_" + tuple._1, tuple._2));
? ? ? ? ? ? ? ? }
? ? ? ? ? ? ? ? return list;
? ? ? ? ? ? }
? ? ? ? });
// 將rdd1中分拆出來的導(dǎo)致傾斜的key的獨立rdd,每條數(shù)據(jù)都打上100以內(nèi)的隨機前綴。
// 然后將這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd,進(jìn)行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,String>, String, String>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<String, String> call(Tuple2<Long, String> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? Random random = new Random();
? ? ? ? ? ? ? ? int prefix = random.nextInt(100);
? ? ? ? ? ? ? ? return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
? ? ? ? ? ? }
? ? ? ? })
? ? ? ? .join(skewedUserid2infoRDD)
? ? ? ? .mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() {
? ? ? ? ? ? ? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? ? ? ? ? ? ? @Override
? ? ? ? ? ? ? ? ? ? ? ? public Tuple2<Long, Tuple2<String, Row>> call(
? ? ? ? ? ? ? ? ? ? ? ? ? ? Tuple2<String, Tuple2<String, Row>> tuple)
? ? ? ? ? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? ? ? ? ? ? ? long key = Long.valueOf(tuple._1.split("_")[1]);
? ? ? ? ? ? ? ? ? ? ? ? ? ? return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2);
? ? ? ? ? ? ? ? ? ? ? ? }
? ? ? ? ? ? ? ? ? ? });
// 將rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進(jìn)行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2);
// 將傾斜key join后的結(jié)果與普通key join后的結(jié)果,uinon起來。
// 就是最終的join結(jié)果。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2);
解決方案七:使用隨機前綴和擴容RDD進(jìn)行join
方案適用場景:如果在進(jìn)行join操作時,RDD中有大量的key導(dǎo)致數(shù)據(jù)傾斜,那么進(jìn)行分拆key也沒什么意義,此時就只能使用最后一種方案來解決問題了。
方案實現(xiàn)思路:
該方案的實現(xiàn)思路基本和“解決方案六”類似,首先查看RDD/Hive表中的數(shù)據(jù)分布情況,找到那個造成數(shù)據(jù)傾斜的RDD/Hive表,比如有多個key都對應(yīng)了超過1萬條數(shù)據(jù)。
然后將該RDD的每條數(shù)據(jù)都打上一個n以內(nèi)的隨機前綴。
同時對另外一個正常的RDD進(jìn)行擴容,將每條數(shù)據(jù)都擴容成n條數(shù)據(jù),擴容出來的每條數(shù)據(jù)都依次打上一個0~n的前綴。
最后將兩個處理后的RDD進(jìn)行join即可。
方案實現(xiàn)原理:將原先一樣的key通過附加隨機前綴變成不一樣的key,然后就可以將這些處理后的“不同 key”分散到多個task中去處理,而不是讓一個task處理大量的相同key。該方案與“解決方案六”的不同之處就在于,上一種方案是盡量只對少數(shù)傾 斜key對應(yīng)的數(shù)據(jù)進(jìn)行特殊處理,由于處理過程需要擴容RDD,因此上一種方案擴容RDD后對內(nèi)存的占用并不大;而這一種方案是針對有大量傾斜key的情 況,沒法將部分key拆分出來進(jìn)行單獨處理,因此只能對整個RDD進(jìn)行數(shù)據(jù)擴容,對內(nèi)存資源要求很高。
方案優(yōu)點:對join類型的數(shù)據(jù)傾斜基本都可以處理,而且效果也相對比較顯著,性能提升效果非常不錯。
方案缺點:該方案更多的是緩解數(shù)據(jù)傾斜,而不是徹底避免數(shù)據(jù)傾斜。而且需要對整個RDD進(jìn)行擴容,對內(nèi)存資源要求很高。
方案實踐經(jīng)驗:曾經(jīng)開發(fā)一個數(shù)據(jù)需求的時候,發(fā)現(xiàn)一個join導(dǎo)致了數(shù)據(jù)傾斜。優(yōu)化之前,作業(yè)的執(zhí)行時間大約是60分鐘左右;使用該方案優(yōu)化之后,執(zhí)行時間縮短到10分鐘左右,性能提升了6倍。
// 首先將其中一個key分布相對較為均勻的RDD膨脹100倍。
JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair(
? ? ? ? new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
? ? ? ? ? ? ? ? for(int i = 0; i < 100; i++) {
? ? ? ? ? ? ? ? ? ? list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2));
? ? ? ? ? ? ? ? }
? ? ? ? ? ? ? ? return list;
? ? ? ? ? ? }
? ? ? ? });
// 其次,將另一個有數(shù)據(jù)傾斜key的RDD,每條數(shù)據(jù)都打上100以內(nèi)的隨機前綴。
JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair(
? ? ? ? new PairFunction<Tuple2<Long,String>, String, String>() {
? ? ? ? ? ? private static final long serialVersionUID = 1L;
? ? ? ? ? ? @Override
? ? ? ? ? ? public Tuple2<String, String> call(Tuple2<Long, String> tuple)
? ? ? ? ? ? ? ? ? ? throws Exception {
? ? ? ? ? ? ? ? Random random = new Random();
? ? ? ? ? ? ? ? int prefix = random.nextInt(100);
? ? ? ? ? ? ? ? return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
? ? ? ? ? ? }
? ? ? ? });
// 將兩個處理后的RDD進(jìn)行join即可。
JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD);
解決方案八:多種方案組合使用
在實踐中發(fā)現(xiàn),很多情況下,如果只是處理較為簡單的數(shù)據(jù)傾斜場景,那么使用上述方案中的某一種基本就可以解決。但是如果要處理一個較為復(fù)雜的數(shù)據(jù)傾 斜場景,那么可能需要將多種方案組合起來使用。比如說,我們針對出現(xiàn)了多個數(shù)據(jù)傾斜環(huán)節(jié)的Spark作業(yè),可以先運用解決方案一和二,預(yù)處理一部分?jǐn)?shù)據(jù), 并過濾一部分?jǐn)?shù)據(jù)來緩解;其次可以對某些shuffle操作提升并行度,優(yōu)化其性能;最后還可以針對不同的聚合或join操作,選擇一種方案來優(yōu)化其性 能。大家需要對這些方案的思路和原理都透徹理解之后,在實踐中根據(jù)各種不同的情況,靈活運用多種方案,來解決自己的數(shù)據(jù)傾斜問題。
#