1. Presto SQL在滴滴的探索與實(shí)踐

        共 7392字,需瀏覽 15分鐘

         ·

        2020-10-29 06:53

        點(diǎn)擊上方數(shù)據(jù)管道”,選擇“置頂星標(biāo)”公眾號(hào)

        干貨福利,第一時(shí)間送達(dá)


        桔妹導(dǎo)讀:Presto在滴滴內(nèi)部發(fā)展三年,已經(jīng)成為滴滴內(nèi)部Ad-Hoc和Hive SQL加速的首選引擎。目前服務(wù)6K+用戶,每天讀取2PB ~ 3PB HDFS數(shù)據(jù),處理30萬億~35萬億條記錄,為了承接業(yè)務(wù)及豐富使用場(chǎng)景,滴滴Presto需要解決穩(wěn)定性、易用性、性能、成本等諸多問題。我們?cè)?年多的時(shí)間里,做了大量?jī)?yōu)化和二次開發(fā),積攢了非常豐富的經(jīng)驗(yàn)。本文分享了滴滴對(duì)Presto引擎的改進(jìn)和優(yōu)化,同時(shí)也提供了大量穩(wěn)定性建設(shè)經(jīng)驗(yàn)。


        1.?
        Presto簡(jiǎn)介
        1.1 簡(jiǎn)介

        Presto是Facebook開源的MPP(Massive Parallel Processing)SQL引擎,其理念來源于一個(gè)叫Volcano的并行數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)提出了一個(gè)并行執(zhí)行SQL的模型,它被設(shè)計(jì)為用來專門進(jìn)行高速、實(shí)時(shí)的數(shù)據(jù)分析。Presto是一個(gè)SQL計(jì)算引擎,分離計(jì)算層和存儲(chǔ)層,其不存儲(chǔ)數(shù)據(jù),通過Connector SPI實(shí)現(xiàn)對(duì)各種數(shù)據(jù)源(Storage)的訪問。


        1.2 架構(gòu)


        Presto沿用了通用的Master-Slave架構(gòu),一個(gè)Coordinator,多個(gè)Worker。Coordinator負(fù)責(zé)解析SQL語(yǔ)句,生成執(zhí)行計(jì)劃,分發(fā)執(zhí)行任務(wù)給Worker節(jié)點(diǎn)執(zhí)行;Worker節(jié)點(diǎn)負(fù)責(zé)實(shí)際執(zhí)行查詢?nèi)蝿?wù)。Presto提供了一套Connector接口,用于讀取元信息和原始數(shù)據(jù),Presto 內(nèi)置有多種數(shù)據(jù)源,如 Hive、MySQL、Kudu、Kafka 等。同時(shí),Presto 的擴(kuò)展機(jī)制允許自定義 Connector,從而實(shí)現(xiàn)對(duì)定制數(shù)據(jù)源的查詢。假如配置了Hive Connector,需要配置一個(gè)Hive MetaStore服務(wù)為Presto提供Hive元信息,Worker節(jié)點(diǎn)通過Hive Connector與HDFS交互,讀取原始數(shù)據(jù)。


        1.3?實(shí)現(xiàn)低延時(shí)原理

        Presto是一個(gè)交互式查詢引擎,我們最關(guān)心的是Presto實(shí)現(xiàn)低延時(shí)查詢的原理,以下幾點(diǎn)是其性能脫穎而出的主要原因:

        • 完全基于內(nèi)存的并行計(jì)算
        • 流水線
        • 本地化計(jì)算
        • 動(dòng)態(tài)編譯執(zhí)行計(jì)劃
        • 小心使用內(nèi)存和數(shù)據(jù)結(jié)構(gòu)
        • GC控制
        • 無容錯(cuò)


        2.?
        Presto在滴滴的應(yīng)用
        2.1 業(yè)務(wù)場(chǎng)景

        • Hive SQL查詢加速
        • 數(shù)據(jù)平臺(tái)Ad-Hoc查詢
        • 報(bào)表(BI報(bào)表、自定義報(bào)表)
        • 活動(dòng)營(yíng)銷
        • 數(shù)據(jù)質(zhì)量檢測(cè)
        • 資產(chǎn)管理
        • 固定數(shù)據(jù)產(chǎn)品



        2.2 業(yè)務(wù)規(guī)模



        2.3 業(yè)務(wù)增長(zhǎng)



        2.4?集群部署


        目前Presto分為混合集群和高性能集群,如上圖所示,混合集群共用HDFS集群,與離線Hadoop大集群混合部署,為了防止集群內(nèi)大查詢影響小查詢, 而單獨(dú)搭建集群會(huì)導(dǎo)致集群太多,維護(hù)成本太高,我們通過指定Label來做到物理集群隔離(詳細(xì)后文會(huì)講到)。而高性能集群,HDFS是單獨(dú)部署的,且可以訪問Druid, 使Presto 具備查詢實(shí)時(shí)數(shù)據(jù)和離線數(shù)據(jù)能力。


        2.5?接入方式

        二次開發(fā)了JDBC、Go、Python、Cli、R、NodeJs 、HTTP等多種接入方式,打通了公司內(nèi)部權(quán)限體系,讓業(yè)務(wù)方方便快捷的接入 Presto 的,滿足了業(yè)務(wù)方多種技術(shù)棧的接入需求。

        Presto 接入了查詢路由 Gateway,Gateway會(huì)智能選擇合適的引擎,用戶查詢優(yōu)先請(qǐng)求Presto,如果查詢失敗,會(huì)使用Spark查詢,如果依然失敗,最后會(huì)請(qǐng)求Hive。在Gateway層,我們做了一些優(yōu)化來區(qū)分大查詢、中查詢及小查詢,對(duì)于查詢時(shí)間小于3分鐘的,我們即認(rèn)為適合Presto查詢,比如通過HBO(基于歷史的統(tǒng)計(jì)信息)及JOIN數(shù)量來區(qū)分查詢大小,架構(gòu)圖見:


        3.?
        引擎迭代


        我們從2017年09月份開始調(diào)研Presto,經(jīng)歷過0.192、0.215,共發(fā)布56次版本。而在19年初(0.215版本是社區(qū)分家版本),Presto社區(qū)分家,分為兩個(gè)項(xiàng)目,叫PrestoDB和PrestoSQL,兩者都成立了自己的基金會(huì)。我們決定升級(jí)到PrestoSQL 最新版本(340版本)原因是:

        • PrestoSQL社區(qū)活躍度更高,PR和用戶問題能夠及時(shí)回復(fù)
        • PrestoDB主要主力還是Facebook維護(hù),以其內(nèi)部需求為主
        • PrestoDB未來方向主要是ETL相關(guān)的,我們有Spark兜底,ETL功能依賴Spark、Hive



        4.?
        引擎改進(jìn)
        在滴滴內(nèi)部,Presto主要用于Ad-Hoc查詢及Hive SQL查詢加速,為了方便用戶能盡快將SQL遷移到Presto引擎上,且提高Presto引擎查詢性能,我們對(duì)Presto做了大量二次開發(fā)。同時(shí),因?yàn)槭褂肎ateway,即使SQL查詢出錯(cuò),SQL也會(huì)轉(zhuǎn)發(fā)到Spark及Hive上,所以我們沒有使用Presto的Spill to Disk功能。這樣一個(gè)純內(nèi)存SQL引擎在使用過程中會(huì)遇到很多穩(wěn)定問題,我們?cè)诮鉀Q這些問題時(shí),也積累了很多經(jīng)驗(yàn),下面將一一介紹:


        4.1?Hive SQL兼容

        18年上半年,Presto剛起步,滴滴內(nèi)部很多用戶不愿意遷移業(yè)務(wù),主要是因?yàn)镻resto是ANSI SQL,與HiveQL差距較大,且查詢結(jié)果也會(huì)出現(xiàn)結(jié)果不一致問題,遷移成本比較高,為了方便Hive用戶能順利遷移業(yè)務(wù),我們對(duì)Presto做了Hive SQL兼容。而在技術(shù)選型時(shí),我們沒有在Presto上層,即沒有在Gateway這層做SQL兼容,主要是因?yàn)殚_發(fā)量較大,且UDF相關(guān)的開發(fā)和轉(zhuǎn)換成本太高,另外就是需要多做一次SQL解析,查詢性能會(huì)受到影響,同時(shí)增加了Hive Metastore的請(qǐng)求次數(shù),當(dāng)時(shí)Hive Metastore的壓力比較大,考慮到成本和穩(wěn)定性,我們最后選擇在Presto引擎層上兼容。

        主要工作:

        • 隱式類型轉(zhuǎn)換
        • 語(yǔ)義兼容
        • 語(yǔ)法兼容
        • 支持Hive視圖
        • Parquet HDFS文件讀取支持
        • 大量UDF支持
        • 其他

        Hive SQL兼容,我們迭代了三個(gè)大版本,目前線上SQL通過率97~99%。而業(yè)務(wù)從Spark/Hive遷移到Presto后,查詢性能平均提升30%~50%,甚至一些場(chǎng)景提升10倍,Ad-Hoc場(chǎng)景共節(jié)省80%機(jī)器資源。下圖是線上Presto集群的SQL查詢通過率及失敗原因占比,'null' 表示查詢成功的SQL,其他表示錯(cuò)誤原因:



        4.2 物理資源隔離

        上文說到,對(duì)性能要求高的業(yè)務(wù)與大查詢業(yè)務(wù)方混合跑,查詢性能容易受到影響,只有單獨(dú)搭建集群。而單獨(dú)搭建集群導(dǎo)致Presto集群太多,維護(hù)成本太高。因?yàn)槟壳拔覀働resto Coordinator還沒有遇到瓶頸,大查詢主要影響Worker性能,比如一條大SQL導(dǎo)致Worker CPU打滿,導(dǎo)致其他業(yè)務(wù)方SQL查詢變慢。所以我們修改調(diào)度模塊,讓Presto支持可以動(dòng)態(tài)打Label,動(dòng)態(tài)調(diào)度指定的 Label 機(jī)器。如下圖所示:


        根據(jù)不同的業(yè)務(wù)劃分不同的label,通過配置文件配置業(yè)務(wù)方指定的label和其對(duì)應(yīng)的機(jī)器列表,Coordinator會(huì)加載配置,在內(nèi)存里維護(hù)集群label信息,同時(shí)如果配置文件里label信息變動(dòng),Coordinator會(huì)定時(shí)更新label信息,這樣調(diào)度時(shí)根據(jù)SQL指定的label信息來獲取對(duì)應(yīng)的Worker機(jī)器,如指定label A時(shí),那調(diào)度機(jī)器里只選擇Worker A 和 Worker B 即可。這樣就可以做到讓機(jī)器物理隔離了,對(duì)性能要求高的業(yè)務(wù)查詢既有保障了。


        4.3?Druid Connector

        使用 Presto + HDFS 有一些痛點(diǎn):

        • latency高,QPS較低?
        • 不能查實(shí)時(shí)數(shù)據(jù),如果有實(shí)時(shí)數(shù)據(jù)需求,需要再構(gòu)建一條實(shí)時(shí)數(shù)據(jù)鏈路,增加了系統(tǒng)的復(fù)雜性
        • 要想獲得極限性能,必須與HDFS?DataNode?混部,且DataNode使用高級(jí)硬件,有自建HDFS的需求,增加了運(yùn)維的負(fù)擔(dān)

        所以我們?cè)?.215版本實(shí)現(xiàn)了Presto on Druid Connector,此插件有如下優(yōu)點(diǎn):

        • 結(jié)合 Druid 的預(yù)聚合、計(jì)算能力(過濾聚合)、Cache能力,提升Presto性能(RT與QPS)
        • 讓 Presto 具備查詢 Druid 實(shí)時(shí)數(shù)據(jù)能力
        • 為Druid提供全面的SQL能力支持,擴(kuò)展Druid數(shù)據(jù)的應(yīng)用場(chǎng)景
        • 通過Druid Broker獲取Druid元數(shù)據(jù)信息
        • 從Druid Historical直接獲取數(shù)據(jù)
        • 實(shí)現(xiàn)了Limit下推、Filter下推、Project下推及Agg下推

        在PrestoSQL 340版本,社區(qū)也實(shí)現(xiàn)了Presto on Druid Connector,但是此Connector是通過JDBC實(shí)現(xiàn)的,缺點(diǎn)比較明顯:

        • 無法劃分多個(gè)Split,查詢性能差
        • 請(qǐng)求查詢Broker,之后再查詢Historical,多一次網(wǎng)絡(luò)通信
        • 對(duì)于一些場(chǎng)景,如大量Scan場(chǎng)景,會(huì)導(dǎo)致Broker OOM
        • Project及Agg下推支持不完善

        詳細(xì)架構(gòu)圖見:


        使用了Presto on Druid后,一些場(chǎng)景,性能提升4~5倍。


        4.4?易用性建設(shè)

        為了支持公司的幾個(gè)核心數(shù)據(jù)平臺(tái),包括:數(shù)夢(mèng)、提取工具、數(shù)易及特征加速及各種散戶,我們對(duì)Presto做了很多二次開發(fā),包括權(quán)限管理、語(yǔ)法支持等,保證了業(yè)務(wù)的快速接入。主要工作:

        • 租戶與權(quán)限
          • 與內(nèi)部Hadoop打通,使用HDFS SIMPLE協(xié)議做認(rèn)證
          • 使用Ranger做鑒權(quán),解析SQL使Presto擁有將列信息傳遞給下游的能力,提供用戶名+數(shù)據(jù)庫(kù)名/表名/列名,四元組的鑒權(quán)能力,同時(shí)提供多表同時(shí)鑒權(quán)的能力
          • 用戶指定用戶名做鑒權(quán)和認(rèn)證,大賬號(hào)用于讀寫HDFS數(shù)據(jù)
          • 支持視圖、表別名鑒權(quán)

        • 語(yǔ)法拓展
          • 支持add partition
          • 支持?jǐn)?shù)字開頭的表
          • 支持?jǐn)?shù)字開頭的字段

        • 特性增強(qiáng)
          • insert數(shù)據(jù)時(shí),將插入數(shù)據(jù)的總行數(shù)寫入HMS,為業(yè)務(wù)方提供毫秒級(jí)的元數(shù)據(jù)感知能力
          • 支持查詢進(jìn)度滾動(dòng)更新,提升了用戶體驗(yàn)
          • 支持查詢可以指定優(yōu)先級(jí),為用戶不同等級(jí)的業(yè)務(wù)提供了優(yōu)先級(jí)控制的能力
          • 修改通信協(xié)議,支持業(yè)務(wù)方可以傳達(dá)自定義信息,滿足了用戶的日志審計(jì)需要等
          • 支持DeprecatedLzoTextInputFormat格式
          • 支持讀HDFS Parquet文件路徑


        4.5?穩(wěn)定性建設(shè)

        Presto在使用過程中會(huì)遇到很多穩(wěn)定性問題,比如Coordinator OOM,Worker Full GC等,為了解決和方便定位這些問題,首先我們做了監(jiān)控體系建設(shè),主要包括:

        • 通過Presto Plugin實(shí)現(xiàn)日志審計(jì)功能
        • 通過JMX獲取引擎指標(biāo)將監(jiān)控信息寫入Ganglia
        • 將日志審計(jì)采集到HDFS和ES;統(tǒng)一接入運(yùn)維監(jiān)控體系,將所有指標(biāo)發(fā)到 Kafka;
        • Presto UI改進(jìn):可以查看Worker信息,可以查看Worker死活信息

        通過以上功能,在每次出現(xiàn)穩(wěn)定性問題時(shí),方便我們及時(shí)定位問題,包括指標(biāo)查看及SQL回放等,如下圖所示,可以查看某集群的成功及失敗SQL數(shù),我們可以通過定義查詢失敗率來觸發(fā)報(bào)警:


        在Presto交流社區(qū),Presto的穩(wěn)定性問題困擾了很多Presto使用者,包括Coordinator和Worker掛掉,集群運(yùn)行一段時(shí)間后查詢性能變慢等。我們?cè)诮鉀Q這些問題時(shí)積累了很多經(jīng)驗(yàn),這里說下解決思路和方法。


        根據(jù)職責(zé)劃分,Presto分為Coordinator和Worker模塊,Coordinator主要負(fù)責(zé)SQL解析、生成查詢計(jì)劃、Split調(diào)度及查詢狀態(tài)管理等,所以當(dāng)Coordinator遇到OOM或者Coredump時(shí),獲取元信息及生成Splits是重點(diǎn)懷疑的地方。而內(nèi)存問題,推薦使用MAT分析具體原因。如下圖是通過MAT分析,得出開啟了FileSystem Cache,內(nèi)存泄漏導(dǎo)致OOM。



        這里我們總結(jié)了Coordinator常見的問題和解決方法:

        • 使用HDFS FileSystem Cache導(dǎo)致內(nèi)存泄漏,解決方法禁止FileSystem Cache,后續(xù)Presto自己維護(hù)了FileSystem Cache
        • Jetty導(dǎo)致堆外內(nèi)存泄漏,原因是Gzip導(dǎo)致了堆外內(nèi)存泄漏,升級(jí)Jetty版本解決
        • Splits太多,無可用端口,TIME_WAIT太高,修改TCP參數(shù)解決
        • JVM Coredump,顯示"unable to create new native thread",通過修改pid_max及max_map_count解決
        • Presto內(nèi)核Bug,查詢失敗的SQL太多,導(dǎo)致Coordinator內(nèi)存泄漏,社區(qū)已修復(fù)

        而Presto Worker主要用于計(jì)算,性能瓶頸點(diǎn)主要是內(nèi)存和CPU。內(nèi)存方面通過三種方法來保障和查找問題:

        • 通過Resource Group控制業(yè)務(wù)并發(fā),防止嚴(yán)重超賣
        • 通過JVM調(diào)優(yōu),解決一些常見內(nèi)存問題,如Young GC Exhausted
        • 善用MAT工具,發(fā)現(xiàn)內(nèi)存瓶頸

        而Presto Worker常會(huì)遇到查詢變慢問題,兩方面原因,一是確定是否開啟了Swap內(nèi)存,當(dāng)Free內(nèi)存不足時(shí),使用Swap會(huì)嚴(yán)重影響查詢性能。第二是CPU問題,解決此類問題,要善用Perf工具,多做Perf來分析CPU為什么不在干活,看CPU主要在做什么,是GC問題還是JVM Bug。如下圖所示,為線上Presto集群觸發(fā)了JVM Bug,導(dǎo)致運(yùn)行一段時(shí)間后查詢變慢,重啟后恢復(fù),Perf后找到原因,分析JVM代碼,可通過JVM調(diào)優(yōu)或升級(jí)JVM版本解決:


        這里我們也總結(jié)了Worker常見的問題和解決方法:

        • Sys load過高,導(dǎo)致業(yè)務(wù)查詢性能影響很大,研究jvm原理,通過參數(shù)(-XX:PerMethodRecompilationCutoff=10000 及 -XX:PerBytecodeRecompilationCutoff=10000)解決,也可升級(jí)最新JVM解決
        • Worker查詢hang住問題,原因HDFS客戶端存在bug,當(dāng)Presto與HDFS混部署,數(shù)據(jù)和客戶端在同一臺(tái)機(jī)器上時(shí),短路讀時(shí)一直wait鎖,導(dǎo)致查詢Hang住超時(shí),Hadoop社區(qū)已解決
        • 超賣導(dǎo)致Worker Young GC Exhausted,優(yōu)化GC參數(shù),如設(shè)置-XX:G1ReservePercent=25 及 -XX:InitiatingHeapOccupancyPercent=15
        • ORC太大,導(dǎo)致Presto讀取ORC Stripe Statistics出現(xiàn)OOM,解決方法是限制ProtoBuf報(bào)文大小,同時(shí)協(xié)助業(yè)務(wù)方合理數(shù)據(jù)治理
        • 修改Presto內(nèi)存管理邏輯,優(yōu)化Kill策略,保障當(dāng)內(nèi)存不夠時(shí),Presto Worker不會(huì)OOM,只需要將大查詢Kill掉,后續(xù)熔斷機(jī)制會(huì)改為基于JVM,類似ES的熔斷器,比如95% JVM 內(nèi)存時(shí),Kill掉最大SQL


        4.6?引擎優(yōu)化及調(diào)研

        作為一個(gè)Ad-Hoc引擎,Presto查詢性能越快,用戶體驗(yàn)越好,為了提高Presto的查詢性能,在Presto on Hive場(chǎng)景,我們做了很多引擎優(yōu)化工作,主要工作:

        • 某業(yè)務(wù)集群進(jìn)行了JVM調(diào)優(yōu),將Ref Proc由單線程改為并行執(zhí)行,普通查詢由30S~1分鐘降低為3-4S,性能提升10倍+
        • ORC數(shù)據(jù)優(yōu)化,將指定string字段添加了布隆過濾器,查詢性能提升20-30%,針對(duì)一些業(yè)務(wù)做了調(diào)優(yōu)
        • 數(shù)據(jù)治理和小文件合并,某業(yè)務(wù)方查詢性能由20S降低為10S,性能提升一倍,且查詢性能穩(wěn)定
        • ORC格式性能優(yōu)化,查詢耗時(shí)減少5%
        • 分區(qū)裁剪優(yōu)化,解決指定分區(qū)但獲取所有分區(qū)元信息問題,減少了HMS的壓力
        • 下推優(yōu)化,實(shí)現(xiàn)了Limit、Filter、Project、Agg下推到存儲(chǔ)層

        18年我們?yōu)榱颂岣逷resto查詢性能,也調(diào)研了一些技術(shù)方案,包括Presto on Alluxio和Presto on Carbondata,但是這2種方案最后都被舍棄了,原因是:

        • Presto on Alluxio查詢性能提升35%,但是內(nèi)存占用和性能提升不成正比,所以我們放棄了Presto on Alluxio,后續(xù)可能會(huì)對(duì)一些性能要求敏感的業(yè)務(wù)使用
        • Presto on Carbondata是在18年8月份測(cè)試的,當(dāng)時(shí)的版本,Carbondata穩(wěn)定性較差,性能沒有明顯優(yōu)勢(shì),一些場(chǎng)景ORC更快,所以我們沒有再繼續(xù)跟蹤調(diào)研Presto on Carbondata。因?yàn)榈蔚斡袑iT維護(hù)Druid的團(tuán)隊(duì),所以我們對(duì)接了Presto on Druid,一些場(chǎng)景性能提升4~5倍,后續(xù)我們會(huì)更多關(guān)注Presto on Clickhouse及Presto on Elasticsearch


        5.?
        總結(jié)

        通過以上工作,滴滴Presto逐漸接入公司各大數(shù)據(jù)平臺(tái),并成為了公司首選Ad-Hoc查詢引擎及Hive SQL加速引擎,下圖可以看到某產(chǎn)品接入后的性能提升:



        上圖可以看到大約2018年10月該平臺(tái)開始接入Presto,查詢耗時(shí)TP50性能提升了10+倍,由400S降低到31S。且在任務(wù)數(shù)逐漸增長(zhǎng)的情況下,查詢耗時(shí)保證穩(wěn)定不變。


        而高性能集群,我們做了很多穩(wěn)定性和性能優(yōu)化工作,保證了平均查詢時(shí)間小于2S。如下圖所示:




        6.?
        展望
        Presto主要應(yīng)用場(chǎng)景是Ad-Hoc查詢,所以其高峰期主要在白天,如下圖所示,是網(wǎng)約車業(yè)務(wù)下午12-16點(diǎn)的查詢,可以看到平均CPU使用率在40%以上。


        但是如果看最近一個(gè)月的CPU使用率會(huì)發(fā)現(xiàn),平均CPU使用率比較低,且波峰在白天10~18點(diǎn),晚上基本上沒有查詢,CPU使用率不到5%。如下圖所示:



        所以,解決晚上資源浪費(fèi)問題是我們今后需要解決的難題。


        同時(shí),為了不與開源社區(qū)脫節(jié),我們打算升級(jí)PrestoDB 0.215到PrestoSQL 340版本,屆時(shí)會(huì)把我們的Presto on Druid代碼開源出來,回饋社區(qū)。



        本文作者

        ?

        滴滴Presto引擎負(fù)責(zé)人,負(fù)責(zé)帶領(lǐng)引擎團(tuán)隊(duì)深入Presto內(nèi)核,解決在海量數(shù)據(jù)規(guī)模下Presto遇到的穩(wěn)定性、性能、成本方面的問題。搜索引擎及OLAP引擎愛好者,公眾號(hào):FFCompute

        瀏覽 73
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
          
          

            1. 朱珠大尺度做爰未删减 | 麻豆av入口 | gogo大胆无码无码免费视频主播 | 小黄片视频免费观看 | 美女扒开腿让男人桶到喷水 |