国产秋霞理论久久久电影-婷婷色九月综合激情丁香-欧美在线观看乱妇视频-精品国avA久久久久久久-国产乱码精品一区二区三区亚洲人-欧美熟妇一区二区三区蜜桃视频

詳解 Spark Core 調(diào)優(yōu)之?dāng)?shù)據(jù)傾斜調(diào)優(yōu)(建議收藏)

共 33478字,需瀏覽 67分鐘

 ·

2021-09-01 15:16

  • 一、調(diào)優(yōu)概述

  • 二、數(shù)據(jù)傾斜發(fā)生時的現(xiàn)象

  • 三、數(shù)據(jù)傾斜發(fā)生的原理

  • 四、如何定位導(dǎo)致數(shù)據(jù)傾斜的代碼

  • 五、某個task執(zhí)行特別慢的情況

  • 六、某個task莫名其妙內(nèi)存溢出的情況

  • 七、查看導(dǎo)致數(shù)據(jù)傾斜的key的數(shù)據(jù)分布情況

  • 數(shù)據(jù)傾斜的解決方案

  • 解決方案一:使用 Hive ETL 預(yù)處理數(shù)據(jù)

  • 解決方案二:過濾少數(shù)導(dǎo)致傾斜的key

  • 解決方案三:提高shuffle操作的并行度

  • 解決方案四:兩階段聚合(局部聚合+全局聚合)

  • 解決方案五:將reduce join轉(zhuǎn)為map join

  • 解決方案六:采樣傾斜key并分拆join操作

  • 解決方案七:使用隨機前綴和擴容RDD進行join

  • 解決方案八:多種方案組合使用

一、調(diào)優(yōu)概述

有的時候,我們可能會遇到大數(shù)據(jù)計算中一個最棘手的問題——數(shù)據(jù)傾斜,此時Spark作業(yè)的性能會比期望差很多。數(shù)據(jù)傾斜調(diào)優(yōu),就是使用各種技術(shù)方案解決不同類型的數(shù)據(jù)傾斜問題,以保證Spark作業(yè)的性能。

二、數(shù)據(jù)傾斜發(fā)生時的現(xiàn)象

絕大多數(shù)task執(zhí)行得都非??欤珎€別task執(zhí)行極慢。比如,總共有1000個task,997個task都在1分鐘之內(nèi)執(zhí)行完了,但是剩余兩三個task卻要一兩個小時。這種情況很常見。

原本能夠正常執(zhí)行的Spark作業(yè),某天突然報出OOM(內(nèi)存溢出)異常,觀察異常棧,是我們寫的業(yè)務(wù)代碼造成的。這種情況比較少見。

三、數(shù)據(jù)傾斜發(fā)生的原理

數(shù)據(jù)傾斜的原理很簡單:在進行shuffle的時候,必須將各個節(jié)點上相同的key拉取到某個節(jié)點上的一個task來進行處理,比如按照key進行聚合或join等操作。此時如果某個key對應(yīng)的數(shù)據(jù)量特別大的話,就會發(fā)生數(shù)據(jù)傾斜。比如大部分key對應(yīng)10條數(shù)據(jù),但是個別key卻對應(yīng)了100萬條數(shù)據(jù),那么大部分task可能就只會分配到10條數(shù)據(jù),然后1秒鐘就運行完了;但是個別task可能分配到了100萬數(shù)據(jù),要運行一兩個小時。因此,整個Spark作業(yè)的運行進度是由運行時間最長的那個task決定的。

因此出現(xiàn)數(shù)據(jù)傾斜的時候,Spark作業(yè)看起來會運行得非常緩慢,甚至可能因為某個task處理的數(shù)據(jù)量過大導(dǎo)致內(nèi)存溢出。

下圖就是一個很清晰的例子:hello這個key,在三個節(jié)點上對應(yīng)了總共7條數(shù)據(jù),這些數(shù)據(jù)都會被拉取到同一個task中進行處理;而world和you這兩個key分別才對應(yīng)1條數(shù)據(jù),所以另外兩個task只要分別處理1條數(shù)據(jù)即可。此時第一個task的運行時間可能是另外兩個task的7倍,而整個stage的運行速度也由運行最慢的那個task所決定。


四、如何定位導(dǎo)致數(shù)據(jù)傾斜的代碼

數(shù)據(jù)傾斜只會發(fā)生在shuffle過程中。這里給大家羅列一些常用的并且可能會觸發(fā)shuffle操作的算子:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現(xiàn)數(shù)據(jù)傾斜時,可能就是你的代碼中使用了這些算子中的某一個所導(dǎo)致的。

五、某個task執(zhí)行特別慢的情況

首先要看的,就是數(shù)據(jù)傾斜發(fā)生在第幾個stage中。

如果是用yarn-client模式提交,那么本地是直接可以看到log的,可以在log中找到當(dāng)前運行到了第幾個stage;如果是用yarn-cluster模式提交,則可以通過Spark Web UI來查看當(dāng)前運行到了第幾個stage。此外,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下當(dāng)前這個stage各個task分配的數(shù)據(jù)量,從而進一步確定是不是task分配的數(shù)據(jù)不均勻?qū)е铝藬?shù)據(jù)傾斜。

比如下圖中,倒數(shù)第三列顯示了每個task的運行時間。明顯可以看到,有的task運行特別快,只需要幾秒鐘就可以運行完;而有的task運行特別慢,需要幾分鐘才能運行完,此時單從運行時間上看就已經(jīng)能夠確定發(fā)生數(shù)據(jù)傾斜了。此外,倒數(shù)第一列顯示了每個task處理的數(shù)據(jù)量,明顯可以看到,運行時間特別短的task只需要處理幾百KB的數(shù)據(jù)即可,而運行時間特別長的task需要處理幾千KB的數(shù)據(jù),處理的數(shù)據(jù)量差了10倍。此時更加能夠確定是發(fā)生了數(shù)據(jù)傾斜。


知道數(shù)據(jù)傾斜發(fā)生在哪一個stage之后,接著我們就需要根據(jù)stage劃分原理,推算出來發(fā)生傾斜的那個stage對應(yīng)代碼中的哪一部分,這部分代碼中肯定會有一個shuffle類算子。精準(zhǔn)推算stage與代碼的對應(yīng)關(guān)系,需要對Spark的源碼有深入的理解,這里我們可以介紹一個相對簡單實用的推算方法:只要看到Spark代碼中出現(xiàn)了一個shuffle類算子或者是Spark SQL的SQL語句中出現(xiàn)了會導(dǎo)致shuffle的語句(比如group by語句),那么就可以判定,以那個地方為界限劃分出了前后兩個stage。

這里我們就以Spark最基礎(chǔ)的入門程序——單詞計數(shù)來舉例,如何用最簡單的方法大致推算出一個stage對應(yīng)的代碼。如下示例,在整個代碼中,只有一個reduceByKey是會發(fā)生shuffle的算子,因此就可以認(rèn)為,以這個算子為界限,會劃分出前后兩個stage。

  • stage0,主要是執(zhí)行從textFile到map操作,以及執(zhí)行shuffle write操作。shuffle write操作,我們可以簡單理解為對pairs RDD中的數(shù)據(jù)進行分區(qū)操作,每個task處理的數(shù)據(jù)中,相同的key會寫入同一個磁盤文件內(nèi)。
  • stage1,主要是執(zhí)行從reduceByKey到collect操作,stage1的各個task一開始運行,就會首先執(zhí)行shuffle read操作。執(zhí)行shuffle read操作的task,會從stage0的各個task所在節(jié)點拉取屬于自己處理的那些key,然后對同一個key進行全局性的聚合或join等操作,在這里就是對key的value值進行累加。stage1在執(zhí)行完reduceByKey算子之后,就計算出了最終的wordCounts RDD,然后會執(zhí)行collect算子,將所有數(shù)據(jù)拉取到Driver上,供我們遍歷和打印輸出。
val conf = new SparkConf()
val sc = new SparkContext(conf)

val lines = sc.textFile("hdfs://...")
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_, 1))
val wordCounts = pairs.reduceByKey(_ + _)

wordCounts.collect().foreach(println(_))

通過對單詞計數(shù)程序的分析,希望能夠讓大家了解最基本的stage劃分的原理,以及stage劃分后shuffle操作是如何在兩個stage的邊界處執(zhí)行的。然后我們就知道如何快速定位出發(fā)生數(shù)據(jù)傾斜的stage對應(yīng)代碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發(fā)現(xiàn),stage1的某幾個task執(zhí)行得特別慢,判定stage1出現(xiàn)了數(shù)據(jù)傾斜,那么就可以回到代碼中定位出stage1主要包括了reduceByKey這個shuffle類算子,此時基本就可以確定是由educeByKey算子導(dǎo)致的數(shù)據(jù)傾斜問題。比如某個單詞出現(xiàn)了100萬次,其他單詞才出現(xiàn)10次,那么stage1的某個task就要處理100萬數(shù)據(jù),整個stage的速度就會被這個task拖慢。

六、某個task莫名其妙內(nèi)存溢出的情況

這種情況下去定位出問題的代碼就比較容易了。我們建議直接看yarn-client模式下本地log的異常棧,或者是通過YARN查看yarn-cluster模式下的log中的異常棧。一般來說,通過異常棧信息就可以定位到你的代碼中哪一行發(fā)生了內(nèi)存溢出。然后在那行代碼附近找找,一般也會有shuffle類算子,此時很可能就是這個算子導(dǎo)致了數(shù)據(jù)傾斜。

但是大家要注意的是,不能單純靠偶然的內(nèi)存溢出就判定發(fā)生了數(shù)據(jù)傾斜。因為自己編寫的代碼的bug,以及偶然出現(xiàn)的數(shù)據(jù)異常,也可能會導(dǎo)致內(nèi)存溢出。因此還是要按照上面所講的方法,通過Spark Web UI查看報錯的那個stage的各個task的運行時間以及分配的數(shù)據(jù)量,才能確定是否是由于數(shù)據(jù)傾斜才導(dǎo)致了這次內(nèi)存溢出。

七、查看導(dǎo)致數(shù)據(jù)傾斜的key的數(shù)據(jù)分布情況

知道了數(shù)據(jù)傾斜發(fā)生在哪里之后,通常需要分析一下那個執(zhí)行了shuffle操作并且導(dǎo)致了數(shù)據(jù)傾斜的RDD/Hive表,查看一下其中key的分布情況。這主要是為之后選擇哪一種技術(shù)方案提供依據(jù)。針對不同的key分布與不同的shuffle算子組合起來的各種情況,可能需要選擇不同的技術(shù)方案來解決。

此時根據(jù)你執(zhí)行操作的情況不同,可以有很多種查看key分布的方式:

  • 如果是Spark SQL中的group by、join語句導(dǎo)致的數(shù)據(jù)傾斜,那么就查詢一下SQL中使用的表的key分布情況。
  • 如果是對Spark RDD執(zhí)行shuffle算子導(dǎo)致的數(shù)據(jù)傾斜,那么可以在Spark作業(yè)中加入查看key分布的代碼,比如RDD.countByKey()。然后對統(tǒng)計出來的各個key出現(xiàn)的次數(shù),collect/take到客戶端打印一下,就可以看到key的分布情況。

舉例來說,對于上面所說的單詞計數(shù)程序,如果確定了是stage1的reduceByKey算子導(dǎo)致了數(shù)據(jù)傾斜,那么就應(yīng)該看看進行reduceByKey操作的RDD中的key分布情況,在這個例子中指的就是pairs RDD。如下示例,我們可以先對pairs采樣10%的樣本數(shù)據(jù),然后使用countByKey算子統(tǒng)計出每個key出現(xiàn)的次數(shù),最后在客戶端遍歷和打印樣本數(shù)據(jù)中各個key的出現(xiàn)次數(shù)。

val sampledPairs = pairs.sample(false, 0.1)
val sampledWordCounts = sampledPairs.countByKey()
sampledWordCounts.foreach(println(_))

數(shù)據(jù)傾斜的解決方案

解決方案一:使用 Hive ETL 預(yù)處理數(shù)據(jù)

方案適用場景:導(dǎo)致數(shù)據(jù)傾斜的是Hive表。如果該Hive表中的數(shù)據(jù)本身很不均勻(比如某個key對應(yīng)了100萬數(shù)據(jù),其他key才對應(yīng)了10條數(shù)據(jù)),而且業(yè)務(wù)場景需要頻繁使用Spark對Hive表執(zhí)行某個分析操作,那么比較適合使用這種技術(shù)方案。

方案實現(xiàn)思路:此時可以評估一下,是否可以通過Hive來進行數(shù)據(jù)預(yù)處理(即通過Hive ETL預(yù)先對數(shù)據(jù)按照key進行聚合,或者是預(yù)先和其他表進行join),然后在Spark作業(yè)中針對的數(shù)據(jù)源就不是原來的Hive表了,而是預(yù)處理后的Hive表。此時由于數(shù)據(jù)已經(jīng)預(yù)先進行過聚合或join操作了,那么在Spark作業(yè)中也就不需要使用原先的shuffle類算子執(zhí)行這類操作了。

方案實現(xiàn)原理:這種方案從根源上解決了數(shù)據(jù)傾斜,因為徹底避免了在Spark中執(zhí)行shuffle類算子,那么肯定就不會有數(shù)據(jù)傾斜的問題了。但是這里也要提醒一下大家,這種方式屬于治標(biāo)不治本。因為畢竟數(shù)據(jù)本身就存在分布不均勻的問題,所以Hive ETL中進行g(shù)roup by或者join等shuffle操作時,還是會出現(xiàn)數(shù)據(jù)傾斜,導(dǎo)致Hive ETL的速度很慢。我們只是把數(shù)據(jù)傾斜的發(fā)生提前到了Hive ETL中,避免Spark程序發(fā)生數(shù)據(jù)傾斜而已。

方案優(yōu)點:實現(xiàn)起來簡單便捷,效果還非常好,完全規(guī)避掉了數(shù)據(jù)傾斜,Spark作業(yè)的性能會大幅度提升。

方案缺點:治標(biāo)不治本,Hive ETL中還是會發(fā)生數(shù)據(jù)傾斜。

方案實踐經(jīng)驗:在一些Java系統(tǒng)與Spark結(jié)合使用的項目中,會出現(xiàn)Java代碼頻繁調(diào)用Spark作業(yè)的場景,而且對Spark作業(yè)的執(zhí)行性能要求很高,就比較適合使用這種方案。將數(shù)據(jù)傾斜提前到上游的Hive ETL,每天僅執(zhí)行一次,只有那一次是比較慢的,而之后每次Java調(diào)用Spark作業(yè)時,執(zhí)行速度都會很快,能夠提供更好的用戶體驗。

項目實踐經(jīng)驗:在美團·點評的交互式用戶行為分析系統(tǒng)中使用了這種方案,該系統(tǒng)主要是允許用戶通過Java Web系統(tǒng)提交數(shù)據(jù)分析統(tǒng)計任務(wù),后端通過Java提交Spark作業(yè)進行數(shù)據(jù)分析統(tǒng)計。要求Spark作業(yè)速度必須要快,盡量在10分鐘以內(nèi),否則速度太慢,用戶體驗會很差。所以我們將有些Spark作業(yè)的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預(yù)處理的Hive中間表,盡可能地減少Spark的shuffle操作,大幅度提升了性能,將部分作業(yè)的性能提升了6倍以上。

解決方案二:過濾少數(shù)導(dǎo)致傾斜的key

方案適用場景:如果發(fā)現(xiàn)導(dǎo)致傾斜的key就少數(shù)幾個,而且對計算本身的影響并不大的話,那么很適合使用這種方案。比如99%的key就對應(yīng)10條數(shù)據(jù),但是只有一個key對應(yīng)了100萬數(shù)據(jù),從而導(dǎo)致了數(shù)據(jù)傾斜。

方案實現(xiàn)思路:如果我們判斷那少數(shù)幾個數(shù)據(jù)量特別多的key,對作業(yè)的執(zhí)行和計算結(jié)果不是特別重要的話,那么干脆就直接過濾掉那少數(shù)幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執(zhí)行filter算子過濾掉這些key。如果需要每次作業(yè)執(zhí)行時,動態(tài)判定哪些key的數(shù)據(jù)量最多然后再進行過濾,那么可以使用sample算子對RDD進行采樣,然后計算出每個key的數(shù)量,取數(shù)據(jù)量最多的key過濾掉即可。

方案實現(xiàn)原理:將導(dǎo)致數(shù)據(jù)傾斜的key給過濾掉之后,這些key就不會參與計算了,自然不可能產(chǎn)生數(shù)據(jù)傾斜。

方案優(yōu)點:實現(xiàn)簡單,而且效果也很好,可以完全規(guī)避掉數(shù)據(jù)傾斜。

方案缺點:適用場景不多,大多數(shù)情況下,導(dǎo)致傾斜的key還是很多的,并不是只有少數(shù)幾個。

方案實踐經(jīng)驗:在項目中我們也采用過這種方案解決數(shù)據(jù)傾斜。有一次發(fā)現(xiàn)某一天Spark作業(yè)在運行的時候突然OOM了,追查之后發(fā)現(xiàn),是Hive表中的某一個key在那天數(shù)據(jù)異常,導(dǎo)致數(shù)據(jù)量暴增。因此就采取每次執(zhí)行前先進行采樣,計算出樣本中數(shù)據(jù)量最大的幾個key之后,直接在程序中將那些key給過濾掉。

解決方案三:提高shuffle操作的并行度

方案適用場景:如果我們必須要對數(shù)據(jù)傾斜迎難而上,那么建議優(yōu)先使用這種方案,因為這是處理數(shù)據(jù)傾斜最簡單的一種方案。

方案實現(xiàn)思路:在對RDD執(zhí)行shuffle算子時,給shuffle算子傳入一個參數(shù),比如reduceByKey(1000),該參數(shù)就設(shè)置了這個shuffle算子執(zhí)行時shuffle read task的數(shù)量。對于Spark SQL中的shuffle類語句,比如group by、join等,需要設(shè)置一個參數(shù),即spark.sql.shuffle.partitions,該參數(shù)代表了shuffle read task的并行度,該值默認(rèn)是200,對于很多場景來說都有點過小。

方案實現(xiàn)原理:增加shuffle read task的數(shù)量,可以讓原本分配給一個task的多個key分配給多個task,從而讓每個task處理比原來更少的數(shù)據(jù)。舉例來說,如果原本有5個key,每個key對應(yīng)10條數(shù)據(jù),這5個key都是分配給一個task的,那么這個task就要處理50條數(shù)據(jù)。而增加了shuffle read task以后,每個task就分配到一個key,即每個task就處理10條數(shù)據(jù),那么自然每個task的執(zhí)行時間都會變短了。具體原理如下圖所示。

方案優(yōu)點:實現(xiàn)起來比較簡單,可以有效緩解和減輕數(shù)據(jù)傾斜的影響。

方案缺點:只是緩解了數(shù)據(jù)傾斜而已,沒有徹底根除問題,根據(jù)實踐經(jīng)驗來看,其效果有限。

方案實踐經(jīng)驗:該方案通常無法徹底解決數(shù)據(jù)傾斜,因為如果出現(xiàn)一些極端情況,比如某個key對應(yīng)的數(shù)據(jù)量有100萬,那么無論你的task數(shù)量增加到多少,這個對應(yīng)著100萬數(shù)據(jù)的key肯定還是會分配到一個task中去處理,因此注定還是會發(fā)生數(shù)據(jù)傾斜的。所以這種方案只能說是在發(fā)現(xiàn)數(shù)據(jù)傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解數(shù)據(jù)傾斜而已,或者是和其他方案結(jié)合起來使用。


解決方案四:兩階段聚合(局部聚合+全局聚合)

方案適用場景:對RDD執(zhí)行reduceByKey等聚合類shuffle算子或者在Spark SQL中使用group by語句進行分組聚合時,比較適用這種方案。

方案實現(xiàn)思路:這個方案的核心實現(xiàn)思路就是進行兩階段聚合。第一次是局部聚合,先給每個key都打上一個隨機數(shù),比如10以內(nèi)的隨機數(shù),此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接著對打上隨機數(shù)后的數(shù)據(jù),執(zhí)行reduceByKey等聚合操作,進行局部聚合,那么局部聚合結(jié)果,就會變成了(1_hello, 2) (2_hello, 2)。然后將各個key的前綴給去掉,就會變成(hello,2)(hello,2),再次進行全局聚合操作,就可以得到最終結(jié)果了,比如(hello, 4)。

方案實現(xiàn)原理:將原本相同的key通過附加隨機前綴的方式,變成多個不同的key,就可以讓原本被一個task處理的數(shù)據(jù)分散到多個task上去做局部聚合,進而解決單個task處理數(shù)據(jù)量過多的問題。接著去除掉隨機前綴,再次進行全局聚合,就可以得到最終的結(jié)果。具體原理見下圖。

方案優(yōu)點:對于聚合類的shuffle操作導(dǎo)致的數(shù)據(jù)傾斜,效果是非常不錯的。通常都可以解決掉數(shù)據(jù)傾斜,或者至少是大幅度緩解數(shù)據(jù)傾斜,將Spark作業(yè)的性能提升數(shù)倍以上。

方案缺點:僅僅適用于聚合類的shuffle操作,適用范圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。


// 第一步,給RDD中的每個key都打上一個隨機前綴。
JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair(
        new PairFunction<Tuple2<Long,Long>, String, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, Long> call(Tuple2<Long, Long> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(10);
                return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2);
            }
        });

// 第二步,對打上隨機前綴的key進行局部聚合。
JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });

// 第三步,去除RDD中每個key的隨機前綴。
JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair(
        new PairFunction<Tuple2<String,Long>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<String, Long> tuple)
                    throws Exception {
                long originalKey = Long.valueOf(tuple._1.split("_")[1]);
                return new Tuple2<Long, Long>(originalKey, tuple._2);
            }
        });

// 第四步,對去除了隨機前綴的RDD進行全局聚合。
JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });

解決方案五:將reduce join轉(zhuǎn)為map join

方案適用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的數(shù)據(jù)量比較小(比如幾百M或者一兩G),比較適用此方案。

方案實現(xiàn)思路:不使用join算子進行連接操作,而使用Broadcast變量與map類算子實現(xiàn)join操作,進而完全規(guī)避掉shuffle類的操作,徹底避免數(shù)據(jù)傾斜的發(fā)生和出現(xiàn)。將較小RDD中的數(shù)據(jù)直接通過collect算子拉取到Driver端的內(nèi)存中來,然后對其創(chuàng)建一個Broadcast變量;接著對另外一個RDD執(zhí)行map類算子,在算子函數(shù)內(nèi),從Broadcast變量中獲取較小RDD的全量數(shù)據(jù),與當(dāng)前RDD的每一條數(shù)據(jù)按照連接key進行比對,如果連接key相同的話,那么就將兩個RDD的數(shù)據(jù)用你需要的方式連接起來。

方案實現(xiàn)原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當(dāng)于會將相同key的數(shù)據(jù)拉取到一個shuffle read task中再進行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以采用廣播小RDD全量數(shù)據(jù)+map算子來實現(xiàn)與join同樣的效果,也就是map join,此時就不會發(fā)生shuffle操作,也就不會發(fā)生數(shù)據(jù)傾斜。具體原理如下圖所示。

方案優(yōu)點:對join操作導(dǎo)致的數(shù)據(jù)傾斜,效果非常好,因為根本就不會發(fā)生shuffle,也就根本不會發(fā)生數(shù)據(jù)傾斜。

方案缺點:適用場景較少,因為這個方案只適用于一個大表和一個小表的情況。畢竟我們需要將小表進行廣播,此時會比較消耗內(nèi)存資源,driver和每個Executor內(nèi)存中都會駐留一份小RDD的全量數(shù)據(jù)。如果我們廣播出去的RDD數(shù)據(jù)比較大,比如10G以上,那么就可能發(fā)生內(nèi)存溢出了。因此并不適合兩個都是大表的情況。


// 首先將數(shù)據(jù)量比較小的RDD的數(shù)據(jù),collect到Driver中來。
List<Tuple2<Long, Row>> rdd1Data = rdd1.collect()
// 然后使用Spark的廣播功能,將小RDD的數(shù)據(jù)轉(zhuǎn)換成廣播變量,這樣每個Executor就只有一份RDD的數(shù)據(jù)。
// 可以盡可能節(jié)省內(nèi)存空間,并且減少網(wǎng)絡(luò)傳輸性能開銷。
final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data);

// 對另外一個RDD執(zhí)行map類操作,而不再是join類操作。
JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple)
                    throws Exception {
                // 在算子函數(shù)中,通過廣播變量,獲取到本地Executor中的rdd1數(shù)據(jù)。
                List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value();
                // 可以將rdd1的數(shù)據(jù)轉(zhuǎn)換為一個Map,便于后面進行join操作。
                Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>();
                for(Tuple2<Long, Row> data : rdd1Data) {
                    rdd1DataMap.put(data._1, data._2);
                }
                // 獲取當(dāng)前RDD數(shù)據(jù)的key以及value。
                String key = tuple._1;
                String value = tuple._2;
                // 從rdd1數(shù)據(jù)Map中,根據(jù)key獲取到可以join到的數(shù)據(jù)。
                Row rdd1Value = rdd1DataMap.get(key);
                return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value));
            }
        });

// 這里得提示一下。
// 上面的做法,僅僅適用于rdd1中的key沒有重復(fù),全部是唯一的場景。
// 如果rdd1中有多個相同的key,那么就得用flatMap類的操作,在進行join的時候不能用map,而是得遍歷rdd1所有數(shù)據(jù)進行join。
// rdd2中每條數(shù)據(jù)都可能會返回多條join后的數(shù)據(jù)。

解決方案六:采樣傾斜key并分拆join操作

方案適用場景:兩個RDD/Hive表進行join的時候,如果數(shù)據(jù)量都比較大,無法采用“解決方案五”,那么此時可以看一下兩個RDD/Hive表中的key分布情況。如果出現(xiàn)數(shù)據(jù)傾斜,是因為其中某一個RDD/Hive表中的少數(shù)幾個key的數(shù)據(jù)量過大,而另一個RDD/Hive表中的所有key都分布比較均勻,那么采用這個解決方案是比較合適的。

方案實現(xiàn)思路

  • 對包含少數(shù)幾個數(shù)據(jù)量過大的key的那個RDD,通過sample算子采樣出一份樣本來,然后統(tǒng)計一下每個key的數(shù)量,計算出來數(shù)據(jù)量最大的是哪幾個key。
  • 然后將這幾個key對應(yīng)的數(shù)據(jù)從原來的RDD中拆分出來,形成一個單獨的RDD,并給每個key都打上n以內(nèi)的隨機數(shù)作為前綴,而不會導(dǎo)致傾斜的大部分key形成另外一個RDD。
  • 接著將需要join的另一個RDD,也過濾出來那幾個傾斜key對應(yīng)的數(shù)據(jù)并形成一個單獨的RDD,將每條數(shù)據(jù)膨脹成n條數(shù)據(jù),這n條數(shù)據(jù)都按順序附加一個0~n的前綴,不會導(dǎo)致傾斜的大部分key也形成另外一個RDD。
  • 再將附加了隨機前綴的獨立RDD與另一個膨脹n倍的獨立RDD進行join,此時就可以將原先相同的key打散成n份,分散到多個task中去進行join了。
  • 而另外兩個普通的RDD就照常join即可。
  • 最后將兩次join的結(jié)果使用union算子合并起來即可,就是最終的join結(jié)果。

方案實現(xiàn)原理:對于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個key導(dǎo)致了傾斜,可以將少數(shù)幾個key分拆成獨立RDD,并附加隨機前綴打散成n份去進行join,此時這幾個key對應(yīng)的數(shù)據(jù)就不會集中在少數(shù)幾個task上,而是分散到多個task進行join了。具體原理見下圖。

方案優(yōu)點:對于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個key導(dǎo)致了傾斜,采用該方式可以用最有效的方式打散key進行join。而且只需要針對少數(shù)傾斜key對應(yīng)的數(shù)據(jù)進行擴容n倍,不需要對全量數(shù)據(jù)進行擴容。避免了占用過多內(nèi)存。

方案缺點:如果導(dǎo)致傾斜的key特別多的話,比如成千上萬個key都導(dǎo)致數(shù)據(jù)傾斜,那么這種方式也不適合。


// 首先從包含了少數(shù)幾個導(dǎo)致數(shù)據(jù)傾斜key的rdd1中,采樣10%的樣本數(shù)據(jù)。
JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1);

// 對樣本數(shù)據(jù)RDD統(tǒng)計出每個key的出現(xiàn)次數(shù),并按出現(xiàn)次數(shù)降序排序。
// 對降序排序后的數(shù)據(jù),取出top 1或者top 100的數(shù)據(jù),也就是key最多的前n個數(shù)據(jù)。
// 具體取出多少個數(shù)據(jù)量最多的key,由大家自己決定,我們這里就取1個作為示范。
JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair(
        new PairFunction<Tuple2<Long,String>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<Long, String> tuple)
                    throws Exception {
                return new Tuple2<Long, Long>(tuple._1, 1L);
            }     
        });
JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey(
        new Function2<Long, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Long call(Long v1, Long v2) throws Exception {
                return v1 + v2;
            }
        });
JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair( 
        new PairFunction<Tuple2<Long,Long>, Long, Long>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple)
                    throws Exception {
                return new Tuple2<Long, Long>(tuple._2, tuple._1);
            }
        });
final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2;

// 從rdd1中分拆出導(dǎo)致數(shù)據(jù)傾斜的key,形成獨立的RDD。
JavaPairRDD<Long, String> skewedRDD = rdd1.filter(
        new Function<Tuple2<Long,String>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, String> tuple) throws Exception {
                return tuple._1.equals(skewedUserid);
            }
        });
// 從rdd1中分拆出不導(dǎo)致數(shù)據(jù)傾斜的普通key,形成獨立的RDD。
JavaPairRDD<Long, String> commonRDD = rdd1.filter(
        new Function<Tuple2<Long,String>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, String> tuple) throws Exception {
                return !tuple._1.equals(skewedUserid);
            } 
        });

// rdd2,就是那個所有key的分布相對較為均勻的rdd。
// 這里將rdd2中,前面獲取到的key對應(yīng)的數(shù)據(jù),過濾出來,分拆成單獨的rdd,并對rdd中的數(shù)據(jù)使用flatMap算子都擴容100倍。
// 對擴容的每條數(shù)據(jù),都打上0~100的前綴。
JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter(
         new Function<Tuple2<Long,Row>, Boolean>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Boolean call(Tuple2<Long, Row> tuple) throws Exception {
                return tuple._1.equals(skewedUserid);
            }
        }).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Iterable<Tuple2<String, Row>> call(
                    Tuple2<Long, Row> tuple) throws Exception {
                Random random = new Random();
                List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
                for(int i = 0; i < 100; i++) {
                    list.add(new Tuple2<String, Row>(i + "_" + tuple._1, tuple._2));
                }
                return list;
            }

        });

// 將rdd1中分拆出來的導(dǎo)致傾斜的key的獨立rdd,每條數(shù)據(jù)都打上100以內(nèi)的隨機前綴。
// 然后將這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd,進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, String>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, String> call(Tuple2<Long, String> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(100);
                return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
            }
        })
        .join(skewedUserid2infoRDD)
        .mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() {
                        private static final long serialVersionUID = 1L;
                        @Override
                        public Tuple2<Long, Tuple2<String, Row>> call(
                            Tuple2<String, Tuple2<String, Row>> tuple)
                            throws Exception {
                            long key = Long.valueOf(tuple._1.split("_")[1]);
                            return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2);
                        }
                    });

// 將rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進行join。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2);

// 將傾斜key join后的結(jié)果與普通key join后的結(jié)果,uinon起來。
// 就是最終的join結(jié)果。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2);

 解決方案七:使用隨機前綴和擴容RDD進行join

方案適用場景:如果在進行join操作時,RDD中有大量的key導(dǎo)致數(shù)據(jù)傾斜,那么進行分拆key也沒什么意義,此時就只能使用最后一種方案來解決問題了。

方案實現(xiàn)思路

  • 該方案的實現(xiàn)思路基本和“解決方案六”類似,首先查看RDD/Hive表中的數(shù)據(jù)分布情況,找到那個造成數(shù)據(jù)傾斜的RDD/Hive表,比如有多個key都對應(yīng)了超過1萬條數(shù)據(jù)。
  • 然后將該RDD的每條數(shù)據(jù)都打上一個n以內(nèi)的隨機前綴。
  • 同時對另外一個正常的RDD進行擴容,將每條數(shù)據(jù)都擴容成n條數(shù)據(jù),擴容出來的每條-數(shù)據(jù)都依次打上一個0~n的前綴。
  • 最后將兩個處理后的RDD進行join即可。

方案實現(xiàn)原理:將原先一樣的key通過附加隨機前綴變成不一樣的key,然后就可以將這些處理后的“不同key”分散到多個task中去處理,而不是讓一個task處理大量的相同key。該方案與“解決方案六”的不同之處就在于,上一種方案是盡量只對少數(shù)傾斜key對應(yīng)的數(shù)據(jù)進行特殊處理,由于處理過程需要擴容RDD,因此上一種方案擴容RDD后對內(nèi)存的占用并不大;而這一種方案是針對有大量傾斜key的情況,沒法將部分key拆分出來進行單獨處理,因此只能對整個RDD進行數(shù)據(jù)擴容,對內(nèi)存資源要求很高。

方案優(yōu)點:對join類型的數(shù)據(jù)傾斜基本都可以處理,而且效果也相對比較顯著,性能提升效果非常不錯。

方案缺點:該方案更多的是緩解數(shù)據(jù)傾斜,而不是徹底避免數(shù)據(jù)傾斜。而且需要對整個RDD進行擴容,對內(nèi)存資源要求很高。

方案實踐經(jīng)驗:曾經(jīng)開發(fā)一個數(shù)據(jù)需求的時候,發(fā)現(xiàn)一個join導(dǎo)致了數(shù)據(jù)傾斜。優(yōu)化之前,作業(yè)的執(zhí)行時間大約是60分鐘左右;使用該方案優(yōu)化之后,執(zhí)行時間縮短到10分鐘左右,性能提升了6倍。

// 首先將其中一個key分布相對較為均勻的RDD膨脹100倍。
JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair(
        new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple)
                    throws Exception {
                List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
                for(int i = 0; i < 100; i++) {
                    list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2));
                }
                return list;
            }
        });

// 其次,將另一個有數(shù)據(jù)傾斜key的RDD,每條數(shù)據(jù)都打上100以內(nèi)的隨機前綴。
JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair(
        new PairFunction<Tuple2<Long,String>, String, String>() {
            private static final long serialVersionUID = 1L;
            @Override
            public Tuple2<String, String> call(Tuple2<Long, String> tuple)
                    throws Exception {
                Random random = new Random();
                int prefix = random.nextInt(100);
                return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
            }
        });

// 將兩個處理后的RDD進行join即可。
JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD);

 解決方案八:多種方案組合使用

在實踐中發(fā)現(xiàn),很多情況下,如果只是處理較為簡單的數(shù)據(jù)傾斜場景,那么使用上述方案中的某一種基本就可以解決。但是如果要處理一個較為復(fù)雜的數(shù)據(jù)傾斜場景,那么可能需要將多種方案組合起來使用。比如說,我們針對出現(xiàn)了多個數(shù)據(jù)傾斜環(huán)節(jié)的Spark作業(yè),可以先運用解決方案一和二,預(yù)處理一部分?jǐn)?shù)據(jù),并過濾一部分?jǐn)?shù)據(jù)來緩解;其次可以對某些shuffle操作提升并行度,優(yōu)化其性能;最后還可以針對不同的聚合或join操作,選擇一種方案來優(yōu)化其性能。大家需要對這些方案的思路和原理都透徹理解之后,在實踐中根據(jù)各種不同的情況,靈活運用多種方案,來解決自己的數(shù)據(jù)傾斜問題。

瀏覽 49
點贊
評論
收藏
分享

手機掃一掃分享

分享
舉報
評論
圖片
表情
推薦
點贊
評論
收藏
分享

手機掃一掃分享

分享
舉報

感谢您访问我们的网站,您可能还对以下资源感兴趣:

国产秋霞理论久久久电影-婷婷色九月综合激情丁香-欧美在线观看乱妇视频-精品国avA久久久久久久-国产乱码精品一区二区三区亚洲人-欧美熟妇一区二区三区蜜桃视频 色五月综合网| 青青国产在线观看| 操老女人逼视频| 嫩草嫩草69| 热re99久久精品国产99热| 男女免费av| 激情五月天开心网| 精品视频日韩| 亚洲无码精品一区二区| 久久婷婷秘精品日产538| 天天躁狠狠躁夜躁2024| 九九热日本| 日本aa视频| 亚洲中文字幕2025| 男女啪啪网站| 久久免费成人电影| 国产又粗又长视频| 综合无码| 五月无码视频| 免费无码毛片一区二区A片| 亚欧免费视频| 成人网肏逼视频| 国产精品视频瘾无码| 久久久女女女女999久久| 久久秘成人久久无码| 熟女影音先锋| 另类老妇性BBwBBw图片| A片免费观看视频| 一区二区三区成人电影| 亚洲AV在线观看| 国产AV美女| 亚洲精品美女| 先锋影音AV资源网| 国产人国产视频成人免费观看…| 日韩加勒比在线| 嫰BBB槡BBBB槡BBBB| 91大片| 日日操天天操夜夜操| 丁香六月婷婷综合缴| 少妇bbw搡bbbb搡bbbb| 黄色成人在线观看| 夜夜夜夜撸| 九一香蕉视频| 亚洲无码电影在线| 麻豆911精一区二区| 西西人体44www大胆无码| 99这里只有精品视频| 美女视频黄a视频全免费不卡| 美女一级A片| 无码成人A片在线观看| 蜜桃91精品秘入口内裤| 国产成人精品久久二区二区91| 在线精品福利| 亚洲一区二区三区在线++中国| 国产乱叫456在线| 乖我硬了让老子cao你小视频| 成人视频免费观看18| 自慰喷水在线观看| 国产91探花秘入口| 国产欧美一区二区人妻喷水| 亚洲成人动漫在线| 先锋影音中文字幕| 黄色视频| 成人网中文字幕| 97精品综合久久| 精品乱子伦一区二区三区下载| 欧美黄色片网站| 高潮喷水在线观看| 日本在线视频不卡| 国产视频1区| 青草福利视频| 欧美色图在线观看视频| 在线观看免费视频黄| 91精品大屁股白浆自慰久久久| www.黄片| 蜜桃久久精品成人无码AV| 黄片视频在线免费观看| 欧美国产成人在线| AAA无码| 欧美成人激情| 国产女人精品视频| 日韩精品久久久久久久| 日韩欧美操| 自拍偷拍国产| 欧美精品一级| 欧美三级网站| 亚洲精品在线视频观看| 波多野结衣在线无码| 黄片视频链接| 日韩精品人妻中文字幕第4区| 在线观看视频一区| 999这里只有精品| 俺来也俺也啪WWW色| 国产三级黄色AV| 激情五月伊人| 51福利视频| 人人妻人人爱人人| 国产高清一区二区三区| www.黄色在线| 日韩欧美视频一区| 日韩一级无码毛片| 麻豆精品一区二区| 伊人在线视频| 我想看操逼| 特级黄色片| 蜜桃91精品| 亚洲成人精品在线观看| 无码国产精品一区二区性色AV | 安徽妇搡BBBB搡BBBB| 亚洲AV秘一区二区色盗战流出 | 91人妻无码精品| 北条麻妃无码一区二区| 精产国品一区二区| 亚洲色久悠悠| 就爱操逼网| 日韩精品一区二区在线观看| www.天天射视频| 国产女主播在线| www.操操网| 欧美午夜无码| 91香蕉| 中文字幕一区二区三区在线观看| 欧美日韩视频在线| 免费三级毛片| 国产牛牛在线| 日韩成人一区二区| 一道本视频在线免费观看| 久久国产综合| 9l人人澡人人妻人人精品| 亚洲AV无码成人精品国产五月天| 日韩综合精品| 影音先锋二区| 一边做一边说国语对白| 国产免费无码| 精品白浆| 欧美不卡在线视频| 色丁香婷婷| 黄色视频免费| 日韩黄色在线观看| av女人的天堂| 亚洲国产精品成人综合色五月| 18精品爽国产冫绿帽社| 国产一级黄片| 久久婷婷网| 狠狠撸狠狠撸| 久久亚洲国产| 欧洲无码精品| 亚洲在线看| 欧美性猛交XXXX乱大交HD| 亚洲视频日韩在线观看| 深爱五月激情网| 精品人妻一区二区三区日产乱码 | 亚洲视频大全| 北条麻妃一区二区三区在线观看 | 波多野结衣无码视频在线观看| 操美女久久| 成人做爰免费网站2023| 无码秘人妻一区二区三-百度 | 无码视频中文字幕| 91在线无码精品秘网站| 天天干天天日天天干| 天天天天天天天天操| 久久婷婷影院| 日韩人妻精品无码制服| 亚洲免费大片| 日韩黄色视频| 亚洲精品999| 狠狠撸天天操| 亚洲综合99| aa免费视频| 免费无码国产| 欧美日日日| 久热re| 亚洲成人无码在线观看| 青娱乐最新官网| 精品国产AV色一区二区深夜久久| 500部大龄熟乱4K视频| 婷婷丁香一区二区三区| 大香蕉久久久久久久| 日本久久网| 操逼视频网址| 国产无码一二三区| 在线视频a| 亚洲.欧美.丝袜.中文.综合 | 少妇一级婬片内射视频| 91av视频| 日韩成人在线免费观看| 久久婷婷婬片A片AAA| 免费观看高清无码视频| 少妇搡BBBB搡BBBB毛多多| 成人AV十八亚洲二区| 中文字幕乱码在线| 国产中文字幕AV在线播放| 亚洲一区二区三| 操操操网| 欧美AAA| 国产欧美综合精品| 极品另类| 久久77777| 黄色福利视频在线观看| 四虎激情| 91豆花视频18| 黄色小视频在线免费观看| 波多野结衣一二三区| 综合视频一区| 国产精品一麻了麻了| a网站在线观看| 内射无码视频| 欧美另类极品| 9191久久| 91福利在线观看| 婷婷AV在线| 欧美一级特黄AAAAAA片| 午夜亚洲无码| 亚洲无码一区二区三区蜜桃| 91人妻视频| 麻豆免费视频| 久久精品视频99| 迷情校园综合| 久草大香蕉视频| 欧美东京热视频| 一级黄色录像片| 日韩一区无码| 18禁网站禁片免费观看| 91视频在线网站| 欧美日屄视频| 青娱乐国产精品一区二区| 成人午夜精品福利免费| 国产超碰在线| 国模吧一区| 日韩人妻无码一区二区三区| www.18av| 成人网中文字幕| 久久久WWW成人免费无遮挡大片| 精产国品一区二区| 黑人av| 亚洲国产一区二区三区| 香蕉91视频| 婷婷夜色福利网| 亚洲男人的天堂网| 三级中文无码| 影音先锋AV成人| 综合久久久| 91丝袜| 熟女综合网| 天天色天| 无码人妻蜜桃| 91中文无码| 91久久久久久久久久久| 中文字幕视频在线直播| 内射午夜福利在线免费观看视频 | www.啪啪| 亚洲三级片在线播放| 色婷婷视频在线| 东京热无码免费视频| 国产成人无码区亚洲A片356p| 天天做天天爽| 青久久久| 操逼首页123| 日本亚洲欧洲免费| 成人网一区二区| 日韩三级AV在线观看| 先锋影音资源站| AA片在线观看视频在线播放| 操逼逼网| 日韩黄色大片| 亚洲无码一区二区三区四区| 一级片A片| 国内操逼| 东京热精品| 在线一区二区三区四区| 人人爽夜夜爽| 天堂在线无码| 欧美高清视频| 无码免费视频观看| ww久久| 97久久人人| 国产清纯可爱美女自卫裸贷偷情 | 色老板最新地址| 亚洲乱码一区二区三区| 免费AV影片| 欧美性交网| 亚洲高清电影| 中文字幕在线一区二区a| 国产亲子乱XXXXimim/| 免费无码国产在线55| 亚洲先锋影音| 免费在线黄色视频| 秋霞午夜视频| 国产精品在线观看视频| a片在线免费看| 黄色小说视频| 性性性性性XXXXX| 日本三级黄色视频| 影音先锋av色| 国产欧美一级片| 西西4444www无码精品| 翔田千里与黑人50分钟| 秒播福利| 一区无码免费| 国内一级黄片| 大香蕉伊人网视频| 人妖和人妖互交性XXXX视频 | 天天日综合| 亚洲一区av| 国产精品视频在线观看| 欧美曰皮免费看| 嫩草视频在线观看免费网站| 日韩插插| 日韩av电影免费在线观看| 高清无码操逼视频| 天天久久毛片| 日韩视频中文字幕在线| 国产熟女AV| 日韩操逼AV| 色五月欧美| 999热视频| 午夜福利100理论片| 上海熟妇搡BBBB搡BBBB| 六月丁香婷| 影音先锋天堂网| 国产综合久久777777麻豆| 国产porn| 中文字幕伊人| 成人在线乱码视频| 超碰在线观看2407| 久久六六| 中文字幕+乱码+中文乱码视频在线观看| 蜜臀av网| 亚洲无码精品一区| 91亚洲精品乱码久久久久久蜜桃 | 性爱一级片| 91视频在线免费看| 日韩中文字幕久久| 91九九| 欧美91| 亚州AV天堂| 思思精品视频| 91妻人人澡人人爽人人精品| 亚洲色色色| 操逼电影网站| 无码成人A片在线观看| 91精品人妻一区二区三区蜜桃欧美| 麻豆乱婬一区二区三区| 日韩免费在线视频观看| 在线不卡中文字幕| 国产ts在线观看| 成人午夜在线| 九九综合久久| 天天肏| 麻豆疯狂做受XXXX高潮视频| 日本豆花视频| 亚洲人操逼视频| 99热r| 国产一级二级三级| 国精产品秘一区二区| 午夜视频免费在线观看| 成人免费在线网站| 免费看黄片的网站| 性爱乱伦视频| 欧美黄片AAA| 特爽特黄特级特色视频| 国产成人精品一区| 免费在线看a| 伊人97| 蜜臀久久99精品久久一区二区| 天天干天天干天天操| 国产TS变态重口人妖| 久热官网| 视色视频在线观看| 999这里只有精品| 欧美婷婷综合| 欧美自拍偷拍| 日韩性爱视频在线播放| 二区| 成人a片在线观看| 91欧美日韩| 人妖黃色一級A片| 天天干天天日| 黄色福利在线观看| 免费观看色情视频| 欧美一二三| 操天天| 欧美、日韩、中文、制服、人妻| 亚洲精品性爱| 亚洲一区久久| 无码人妻精品一区二区三| 青娱乐极品久久| 少妇人妻在线| 欧美Aⅴ| 人妻精品| 水果派红桃AV解说| 国产色网站| 五月婷婷丁香六月| 日日碰狠狠躁久久躁婷婷| 在线亚洲色图| 国产TS丝袜人妖系列视频| 日韩精品影视| 一级午夜福利| 強姦婬片A片AAA毛片Mⅴ| 抠逼网站| www.黄色电影| 高清无码在线看| 中文字幕在线无码观看| 天天拍天天操| 91乱伦| 亚洲综合视频网| 一本色道久久综合无码人妻软件| 欧美一级日韩一级| 欧一美一婬一伦一区二区三区| 依人综合网| 欧美激情网站| 亚洲男同Gay一区二区| 亚洲无码中文字幕在线播放| 成人性生活影视av| 丁香婷婷六月| 天天综合久久| 欧美精品久久久久久久久| 操大爷影院| 国产人妻一区二区三区欧美毛片| 亚洲AAA| av手机天堂网| 成人在线黄色| 久久免费看视频| 一本到在线视频| 91精品无码| 真人一级毛毛片| 欧美一级婬片免费视频华泰老添妇| 天天谢天天干| 久久国产99| 中文字幕久久播放| 日本成人电影一区二区三区| 欧美三级网| 免费爱爱视频网站| 五月激情六月丁香| 99视频免费在线| 国产成人一级片| 91亚色视频| 亚洲无码成人网| 美女黄色视频永费在线观看网站| 无码人妻A片一区二区青苹果| 欧美性爱在线观看| 日韩欧美国产综合| 国产福利av| 91三级片在线观看| 国产视频中文字幕| 97干网| 免费a网站| 成人精品秘久久久按摩下载| 成人国产精品| 黄色生活片| 亚洲欧洲免费视频| 午夜美女福利视频| 亚洲黄色精品| 欧美激情一级| 91精品国产综合久久久不打电影| 九七精品| 骚小姨子无码| 亚洲www在线| 永久免费不卡在线观看黄网站| 手机成人在线视频| 女女女女女女BBBBBB手| 亚洲精品97久久中文字幕| 一区二区三区四区在线视频| 日本无码专区| 在线观看无码高清视频| 亚洲欧美成人在线| 一本大道东京热AV| 五月天色色小说| 日本内射网站| 欧美一级性爱在线观看| 日本色色视频| 无码不卡中文字幕| 在线观看免费黄片| 久久一| 中国免费毛片| 色老汉视频| a片在线观看视频| 国产一区二区视频在线观看| 久久五月婷| 蜜桃亚洲AV无码一区二区三区| 亚洲免费视频在线观看| 午夜男人天堂| 高清无码网| 亚洲综合日韩在线| a片免费在线| 操逼电影免费| 日日夜夜av| 免费国产成人看片在线| 黑人av| 日韩小视频在线| 日韩视频在线观看一区| 四虎av| 黄色大片免费在线观看| 无码一区二区三区免费看| 大地影院在线资源观看| 另类欧美色图| 国产精品3| www.水蜜桃| 人人摸人人操人人射| 国产三级高清无码| 国产精品99久久久久的广告情况| 成人福利视频在线观看| 国产精品爽爽久久久| 豆花AV| 成人福利在线观看| 成人一区二区三区四区五区| AV高清无码| 天堂俺去俺来也www久久婷婷 | 亚洲一级无码视频| 欧美A片在线观看| 91黄色在线观看| 影音先锋男人天堂| 久久老熟女| 天天肏屄| 嫩草久久99www亚洲红桃| 中字幕视频在线永久在线观看免费| 久艹在线| 操天天| 天天日天天干美女| 韩日无码人妻| 中文字幕视频在线| 日韩人妻无码一区二区三区| 无码人妻久久一区二区三区蜜桃| 国产精品18进进出出17c| 黄页网站在线免费观看| 午夜九九九| 亚洲成人大片| 欧美东京热视频| 91无码人妻传媒tv| JiZZjiZZ亚洲成熟熟妇| 亚洲无码色色| 婷婷五月六月| 午夜AV大片| 中文字幕亞洲高清手機版第617| 久久这里精品| 亚州视频在线观看| 国内综合久久| 亚洲成人在线视频| 免费毛片网址| 九色PORN视频成人蝌蚪自拍| 人人艹在线| 丁香五月天婷婷| 69AV在线播放| 91精品国产一区二区| 人妻体内射精| 久久99草| 天天综合久久| 国产激情久久| 午夜香蕉视频| 成人亚洲A片V一区二区三区蜜月| 国产精品天天| 99热高清| 婷婷五月天丁香成人社区| 国产操B| 亚洲无码在线电影| 狠狠躁夜夜躁人爽| 青青草成人网站| 国产小精品| A片黄色毛片| 在线看V片| 女侠吕四娘第二部| 国产免费一区二区三区最新不卡| 国产黄A片免费网站免费| av黄片| 强奸乱伦五月天| 亚洲砖区区免费| 欧美在线视频一区二区| 国产精品色哟哟| 亚洲北条麻妃一级A片| 国产AV资源| 中文字幕成人电影| 重庆美女揉BBBB搡BBBB| 午夜福利资源| 亚洲精品久久久久久久久豆丁网 | 嘿咻无码| 精品一区二区三区三区| 大鸡巴导航| 深夜无码| 中文字幕亚洲在线观看| 亚洲人成无码| av在线观看中文字幕| 国产一级片网站| 人人爱人人摸人人操| 一区二区在线免费观看| 欧美三级网址| 三级片无码在线| 日本在线观看www| 天天逼网| 夜夜夜夜撸| 热久久最新地址| 亚洲操逼图片| 日韩久久久| www.欧美精品| 男女免费av| 亚洲青娱乐在线| 成人做爰黄级A片免费看土方| 成人性生交大片免费看小芳| 69av视频在线观看| 一级操逼大片| 3D动漫精选啪啪一期二期三期| 国产剧情自拍| 女同一区二区三区| 欧美一区电影| www日本黄色| 欧美A片在线免费观看| 人妻体体内射精一区二区| 亚洲1234区| 国产精品色呦呦| 99在线观看视频在线高清| 动漫操逼视频| 久久久女人| 国产精品国产三级国产| 国产精品久久久久久久久久久久久久久久 | 色久悠悠综合网| 成人黄网站免费观看| 内射视频免费看| 国精品无码A区一区二区| 日韩av免费在线| 久久久久黄片| 3D动漫精品啪啪一区二区竹笋| 综合偷拍| 欧美成人性爱图片| A片免费在线播放| 天天日天天干天天干| 99免费精品视频| 成人黄片免费看| 亚洲一级黄色电影| 午夜黄片| 就去色色五月天| 亚洲激情综合视频| 先锋AV资源网| 欧美日韩在线视频一区| 国产传媒_色哟哟| 你懂得在线观看| av水果派| 伊人激情网| 98在线++传媒麻豆的视频| 久久99无码| 日本爱爱片| 国产性爱自拍视频| 欧美在线视频播放| 久久黄色网址| 亚洲无码激情| 日韩精品一区二区三| 大逼影院| 天堂在线网| 裸体美女视频欧美18| 国产剧情在线| 99re视频在线观看| 99精品一区| 亚洲人人爱| 亚洲中文字幕在线视频播放| 麻豆md0049免费| 内射国产| 日韩免费高清| 尤物视频网站在线观看| av三级网站| 肏网站| 在线播放JUY-925被丈夫上司侵犯的第7天 | 日韩性爱视频在线播放| 色播视频在线观看| 噜噜噜色| 91最新网址| mm131亚洲国产精品久久| 中文字幕69| 一级少女免费播放电视剧韩剧TV| 天天色AV| 超碰免费在线观看| 国产精品久久久无码专区| 俺来也俺去www色情网| 中文子幕免费毛片| 亚洲天堂免费观看| 日本高清一区二区高清免费视频| 五月丁香激情四射| 在线亚洲色图| 中文字幕乱码中文字乱码影响大吗| 黄色A级片| 日日騒av无码| 五月婷婷色播| 一区二区三区无码在线| 久久无码黄片| 人人看人人插| 亚洲涩情91日韩一区二区| 99热这里只有精品9| 国产无码乱伦内射| 欧美成人大片| 日韩精品人妻中文字幕| 日韩性AV| 色777网站| 91人妻无码精品蜜桃| 成人视频网| 国产精品一区二区AV日韩在线| 国产成人精品一区二| 欧美不卡一区| 按摩性高湖婬AAA片A片中国 | 久久大屌| 三级片在线看| 五月天深爱激情网| 伊人精品在线| 福利视频网站| 亚洲色成人网站www永久四虎| 夜夜操天天日| 超碰91在线观看| 亚洲综合五月天| 中文字幕在线不卡视频| 一道本久久| 尤物看片| 做爰视频毛片下载蜜桃视频。 | anwuye官方网站| 自拍偷拍国产| 精品成人无码一区二区三区| 26uuu亚洲| 一级片免费在线观看| 全国男人的天堂网站| 无码成人A片在线观看| 久久99精品国产.久久久久| 久久婷婷国产综合| 日日天天| 日本免费A∨| 日韩免费黄色电影| 欧美A一| 国产成人无码AⅤ片免费播放| 日韩欧美一级| 99操99| 91av成人| 欧美一区二区三区成人| 美女乱伦| 亚洲成人中文字幕在线| 无码黄漫| 影音先锋资源| 亚洲日韩在线免费观看| 免费黄色在线视频| 国产精品乱伦片| 91精品视频在线播放| 成人五月天黄色电影| 内射视频免费观看| 亚洲精品性爱| 一本色道久久综合无码| 久久久久久久| 人人操国产| 少妇在线观看| 色亭亭影院| a视频在线观看| 午夜第一页| 久久免费精品视频| 国产一区二区不卡亚洲涩情| 黄页网站在线免费观看| 亚洲中文字幕日韩精品| 高清无码免费观看| 成人网站中文字幕| 白浆av| 亚洲欧美日韩中文字幕在线观看| 高清av无码| 国产黄片在线播放| 特级特黄AAAAAAAA片| 无码专区亚洲| 91成人影片| 日韩在线你懂的| 欧美黄片免费| 精品一区二区三区免费| 欧美夜夜草视频| 谁有毛片网址| 狠狠躁婷婷天天爽综合| av在线直播| 大香蕉亚洲网| 老熟女露脸25分钟91秒| 国产中文字字幕乱码无限| 51妺妺嘿嘿午夜成人A片| 99久草| 99热国产| 91成人无码看片在线观看网址| 91黄在线观看| 妻子互换被高潮了三次| 18禁AV在线| 婷婷五月花| 成人免费一区| 精品国产乱码一区二区| 欧美色色色色色| 欧美精品三区| 亚洲综合免费观看高清| 成年人视频网| 日日干视频| 丁香五月婷婷六月| 国产成人V在线精品一区| 四川w搡BBB搡wBBB搡| 骚网站在线观看| a在线观看免费| 91欧美在线| 国产成人h| 黄色日逼视频| 东京热在线视频观看| 黄色av网| 无码熟妇| 国产精品无码专区AV免费播放| 亚洲jizzjizz| 免费av大全| 日韩人妻精品中文字幕专区不卡| 人人操人人操人人操人人操人人操| 在线无码视频播放| 翔田千里中文字幕无码| 国产精品欧美综合在线| 午夜福利10000| 韩国无码视频在线观看| 91乱伦| 91精品视频网站| 亚洲成人网站免费观看| 综合站欧美精品| 高清无码一区二区三区四区| 69国产精品无码免费| 一二三区| 亚洲一区视频| 一级黄色网| 啪啪免费| 操极品美女| 成人区精品一区二区婷婷| 日本中文字幕中文翻译歌词| 啪啪人妻| 嫩BBB槡BBBB槡BBB| 999久久| 亚洲Av秘无码一区二区| 国产三级片在线观看| 蜜桃视频网站18| 黃色一級片黃色一級片尖叫声-百度-百 | 黄色成人网站在线观看免费| 久久波多野结衣一区二区| 可以免费观看的AV| 人人妻人人澡人人爽人人| 亚洲毛片在线| 在线观看亚洲中文字幕| 在线免费三级| 狼友视频在线观看18| 麻豆av在线观看| 男女AV网站| 先锋影音亚洲AV每日资源网站| 色网在线观看| 老司机av| 五月婷婷六月丁香综合| 亚洲日韩字幕| www人人操| 亚洲www| 有码在线| 日本成人久久| 中文字幕亚洲视频在线观看| 亚洲无码在线资源| 午色婷婷国产无码| 免费看黄色片| 免费无码婬片AAAA片直播| 日韩有码中文字幕在线观看| 香蕉污视频| 尤物一区二区| 超碰人人干| 口爆av| 国产三级午夜理伦三级| 中文字幕免费AV| 亚洲国产精品精JIZZ老师| 欧美大鸡| 久操视频一区二区三区| 自拍偷拍综合| 国产激情片| 在线观看的av网站| 亚洲乱伦小说网| PORNY九色视频9l自拍| 爆菊花综合网| 午夜福利不卡视频| 人人操人妻| 成人三级在线观看| 无码AV电影| 操逼com| av超碰在线| 久久久久久久9999| 成人黄网站在线观看| 成人性生活影视av| 九九99电影| 成人在线视频观看| 亚洲成人在线免费观看| 加勒比在线| 69精品在线| 超碰国产在线| 国产精选在线| 久久大陆| 亚洲高清无码中文字幕| 丰满人妻一区二区三区不卡二| 日韩A级毛片| 丁香婷婷五月综合影院| 亚洲无码色色| 国产精品无码永久免费不卡| 国产午夜精品视频| 影音先锋国产av| 国产高清精品软件丝瓜软件| 久久中文字幕无码| 欧美日韩色图| 无码精品ThePorn| 天天毛片| 成年人黄色电影| 日韩理论片| 欧美日韩性色无码免费| 成人毛片在线播放| 无码人妻日韩精品一区二区三| 91国在线|