国产秋霞理论久久久电影-婷婷色九月综合激情丁香-欧美在线观看乱妇视频-精品国avA久久久久久久-国产乱码精品一区二区三区亚洲人-欧美熟妇一区二区三区蜜桃视频

深度學習的可解釋性!

共 21510字,需瀏覽 44分鐘

 ·

2021-02-13 22:09



一、深度學習的可解釋性研究概述



隨著深度學習模型在人們日常生活中的許多場景下扮演著越來越重要的角色,模型的「可解釋性」成為了決定用戶是否能夠「信任」這些模型的關鍵因素(尤其是當我們需要機器為關系到人類生命健康、財產安全等重要任務給出預測和決策結果時)。在本章,我們將從深度學習可解釋性的定義研究意義、分類方法 3 個方面對這一話題展開討論。

1.1


?何為可解釋性


對于深度學習的用戶而言,模型的可解釋性是一種較為主觀的性質,我們無法通過嚴謹的數學表達方法形式化定義可解釋性。通常,我們可以認為深度學習的可解釋性刻畫了「人類對模型決策或預測結果的理解程度」,即用戶可以更容易地理解解釋性較高的模型做出的決策和預測。

?

從哲學的角度來說,為了理解何為深度學習的可解釋性,我們需要回答以下幾個問題:首先,我們應該如何定義對事務的「解釋」,怎樣的解釋才足夠好?許多學者認為,要判斷一個解釋是否夠好,取決于這個解釋需要回答的問題是什么。對于深度學習任務而言,我們最感興趣的兩類問題是「為什么會得到該結果」和「為什么結果應該是這樣」。而理想狀態(tài)下,如果我們能夠通過溯因推理的方式恢復出模型計算出輸出結果的過程,就可以實現較強的模型解釋性。

?

實際上,我們可以從「可解釋性」和「完整性」這兩個方面來衡量一種解釋是否合理?!缚山忉屝浴怪荚谕ㄟ^一種人類能夠理解的方式描述系統(tǒng)的內部結構,它與人類的認知、知識和偏見息息相關;而「完整性」旨在通過一種精確的方式來描述系統(tǒng)的各個操作步驟(例如,剖析深度學習網絡中的數學操作和參數)。然而,不幸的是,我們很難同時實現很強的「可解釋性」和「完整性」,這是因為精確的解釋術語往往對于人們來說晦澀難懂。同時,僅僅使用人類能夠理解的方式進行解釋由往往會引入人類認知上的偏見。

?

此外,我們還可以從更宏大的角度理解「可解釋性人工智能」,將其作為一個「人與智能體的交互」問題。如圖 1 所示,人與智能體的交互涉及人工智能、社會科學、人機交互等領域。


? ? ? ?

? ? ?

圖 1:可解釋的人工智能?

?

1.2


為什么需要可解釋性


在當下的深度學習浪潮中,許多新發(fā)表的工作都聲稱自己可以在目標任務上取得良好的性能。盡管如此,用戶在諸如醫(yī)療、法律、金融等應用場景下仍然需要從更為詳細和具象的角度理解得出結論的原因。為模型賦予較強的可解釋性也有利于確保其公平性、隱私保護性能、魯棒性,說明輸入到輸出之間個狀態(tài)的因果關系,提升用戶對產品的信任程度。下面,我們從「完善深度學習模型」、「深度學習模型與人的關系」、「深度學習模型與社會的關系」3 個方面簡介研究機器深度學習可解釋性的意義。


(1)完善深度學習模型


  • 大多數深度學習模型是由數據驅動的黑盒模型,而這些模型本身成為了知識的來源,模型能提取到怎樣的知識在很大程度上依賴于模型的組織架構、對數據的表征方式,對模型的可解釋性可以顯式地捕獲這些知識。

  • 盡管深度學習模型可以取得優(yōu)異的性能,但是由于我們難以對深度學習模型進行調試,使其質量保證工作難以實現。對錯誤結果的解釋可以為修復系統(tǒng)提供指導。


(2)深度學習模型與人的關系


  • 在人與深度學習模型交互的過程中,會形成經過組織的知識結構來為用戶解釋模型復雜的工作機制,即「心理模型」。為了讓用戶得到更好的交互體驗,滿足其好奇心,就需要賦予模型較強的可解釋性,否則用戶會感到沮喪,失去對模型的信任和使用興趣。

  • 人們希望協調自身的知識結構要素之間的矛盾或不一致性。如果機器做出了與人的意愿有出入的決策,用戶則會試圖解釋這種差異。當機器的決策對人的生活影響越大時,對于這種決策的解釋就更為重要。

  • 當模型的決策和預測結果對用戶的生活會產生重要影響時,對模型的可解釋性與用戶對模型的信任程度息息相關。例如,對于醫(yī)療、自動駕駛等與人們的生命健康緊密相關的任務,以及保險、金融、理財、法律等與用戶財產安全相關的任務,用戶往往需要模型具有很強的可解釋性才會謹慎地采用該模型。


(3)深度學習模型與社會的關系


  • 由于深度學習高度依賴于訓練數據,而訓練數據往往并不是無偏的,會產生對于人種、性別、職業(yè)等因素的偏見。為了保證模型的公平性,用戶會要求深度學習模型具有檢測偏見的功能,能夠通過對自身決策的解釋說明其公平。

  • 深度學習模型作為一種商品具有很強的社會交互屬性,具有強可解釋性的模型也會具有較高的社會認可度,會更容易被公眾所接納。

1.3


可解釋性的分類


根據可解釋性方法的作用時間、可解釋性方法與模型的匹配關系、可解釋性方法的作用范圍,我們可以將深度學習的可解釋性方法分為:本質可解釋性和事后可解釋性、針對特定模型的可解釋性和模型無關可解釋性、局部可解釋性和全局可解釋性。

?

其中,本質可解釋性指的是對模型的架構進行限制,使其工作原理和中間結果能夠較為容易地為人們所理解(例如,結構簡單的決策樹模型);事后可解釋性則指的是通過各種統(tǒng)計量、可視化方法、因果推理等手段,對訓練后的模型進行解釋。

?

由于深度模型的廣泛應用,本文將重點關注深度學習的可解釋性,并同時設計一些深度學習方法的解釋。



二、深度學習的可解釋性




對于深度學習模型來說,我們重點關注如何解釋「網絡對于數據的處理過程」、「網絡對于數據的表征」,以及「如何構建能夠生成自我解釋的深度學習系統(tǒng)」。網路對于數據的處理過程將回答「輸入為什么會得到相應的的特定輸出?」,這一解釋過程與剖析程序的執(zhí)行過程相類似;網絡對于數據的表征將回答「網絡包含哪些信息?」,這一過程與解釋程序內部的數據結構相似。下文將重點從以上三個方面展開討論。

?

2.1


深度學習過程的可解釋性

?

常用的深度網絡使用大量的基本操作來得出決策:例如,ResNet使用了約5×107個學習參數,1010個浮點運算來對單個圖像進行分類。解釋這種復雜模型的基本方法是降低其復雜度。這可以通過設計表現與原始模型相似但更易于解釋的代理模型來完成(線性代理模型決策樹模型等),或者也可以構建顯著性圖(salience map),來突出顯示最相關的一部分計算,從而提供可解釋性。

?

(1)線性代理模型(Proxy Models)

?

目前被廣泛采用的深度學習模型,大多仍然是「黑盒模型」。在根據預測結果規(guī)劃行動方案,或者選擇是否部署某個新模型時,我們需要理解預測背后的推理過程,從而評估模型的可信賴程度。一種可能的方法是,使用線性可解釋的模型近似“黑盒模型”。

?

Marco et. al [1]提出了一種新的模型無關的模型解釋技術「LIME」,它可以通過一種可解釋的、準確可靠的方式,通過學習一個圍繞預測結果的可解釋模型,解釋任意的分類器或回歸模型的預測結果。本文作者還通過簡潔地展示具有代表性的個體預測結果及其解釋,將該任務設計成了一種子模塊優(yōu)化問題。

?

文中指出,一種優(yōu)秀的解釋方法需要具備以下幾點特質:


(1)可解釋性:給出對輸入變量和響應的關系的定性理解,可解釋性需要考慮用戶自身的限制。

(2)局部保真:解釋方法至少需要在局部是可靠的,它必須與模型在被預測實例附近的表現相對應。需要指出的是,在全局上重要的特征不一定在局部環(huán)境下仍然重要,反之亦然。

(3)模型無關:解釋方法需要能夠解釋各種各樣的模型。

(4)全局視角:準確度有時并不是一個很好的模型評價指標,解釋器旨在給出一些具有代表性的對樣本的解釋。

?

文中的方法可以基于對分類器局部可靠的可解釋表征,來鑒別器模型的可解釋性。LIME 會對輸入樣本進行擾動,識別出對于預測結果影響最大的特征(人類可以理解這些特征)。

?

? ? ? ?? ? ??

圖 2

如圖 2?所示,加粗的紅色十字樣本有待解釋。從全局來看,很難判斷紅色十字和藍色圓圈對于帶解釋樣本的影響。我們可以將視野縮小到黑色虛線周圍的局部范圍內,在加粗紅色十字樣本周圍對原始樣本特征做一些擾動,將擾動后的采樣樣本作為分類模型的輸入,LIME 的目標函數如下:


? ? ? ?? ? ??

?

其中,f 為分類器,g 為解釋器,π_x 為臨近度度量,Ω(g) 為解釋器 g 的復雜度,L 為損失函數。

? ? ? ?

圖 3


因為代理模型提供了模型復雜度與可信度之間的量化方法,因此方法間可以互相作為參考,吸引了許多研究工作。

?

(2)決策樹方法

?

另一種代理模型的方法是決策樹。將神經網絡分解成決策樹的工作從1990年代開始,該工作能夠解釋淺層網絡,并逐漸泛化到深度神經網絡的計算過程中。

?

一個經典的例子是Makoto et. al [2]。文中提出了一種新的規(guī)則抽?。≧ule Extraction)方法CRED,使用決策樹對神經網絡進行分解,并通過c/d-rule算法合并生成的分支,產生不同分類粒度,能夠考慮連續(xù)與離散值的神經網絡輸入輸出的解釋。具體算法如下:

一.將網絡輸入變量按設定的特征間隔大小分成不同類別,并劃分網絡的目標輸出和其他輸出。

二.建立輸出隱藏決策樹(Hidden-Output Decision Tree)每個結點使用預測目標的特征做區(qū)分,以此分解網絡,建立網絡的中間規(guī)則。

三.對于2建立的每個節(jié)點,對其代表的每個函數建立輸入隱藏決策樹(Hidden-Input Decision Tree),對輸入的特征進行區(qū)分,得到每個節(jié)點輸入的規(guī)則。

四.使用3中建立的輸入規(guī)則替換結點的輸出規(guī)則,得到網絡整體的規(guī)則。

五.合并結點,根據設定的規(guī)則,使表達簡潔。

?

? ? ? ?? ??

圖 4 :CRED算法


DeepRED [3]將CRED的工作拓展到了多層網絡上,并采用了多種結構優(yōu)化生成樹的結構。另一種決策樹結構是ANN-DT[4],同樣使用模型的結點結構建立決策樹,對數據進行劃分。不同的是,判斷節(jié)點是采用正負兩種方法判斷該位置的函數是否被激活,以此劃分數據。決策樹生成后,通過在樣本空間采樣、實驗,獲得神經網絡的規(guī)則。

?

這階段的工作對較淺的網絡生成了可靠的解釋,啟發(fā)了很多工作,但由于決策樹節(jié)點個數依賴于網絡大小,對于大規(guī)模的網絡,方法的計算開銷將相應增長。

?

(3)自動規(guī)則生成

?

自動規(guī)則生成是另一種總結模型決策規(guī)律的方法,上世紀80年代, Gallant將神經網絡視作存儲知識的數據庫,為了從網絡中發(fā)掘信息和規(guī)則,他在工作[4]中提出了從簡單網絡中提取規(guī)則的方法,這可以被看作是規(guī)則抽取在神經網絡中應用的起源?,F今,神經網絡中的規(guī)則生成技術主要講輸出看作規(guī)則的集合,利用命題邏輯等方法從中獲取規(guī)則。

?

Hiroshi Tsukimoto [6]提出了一種從訓練完成的神經網絡中提取特征提取規(guī)則的方法,該方法屬于分解法,可以適用在輸出單調的神經網絡中,如sigmoid函數。該方法不依賴訓練算法,計算復雜度為多項式,其計算思想為:用布爾函數擬合神經網絡的神經元,同時為了解決該方法導致計算復雜度指數增加的問題,將算法采用多項式表達。最后將該算法推廣到連續(xù)域,提取規(guī)則采用了連續(xù)布爾函數。

?

Towell [7]形式化了從神經網絡中提取特征的方法,文章從訓練完成的神經網絡中提取網絡提取特征的方法,MoFN,該方法的提取規(guī)則與所提取的網絡的精度相近,同時優(yōu)于直接細化規(guī)則的方法產生的規(guī)則,更加利于人類理解網絡。

?

MoFN分為6步:1)聚類;2)求平均;3)去誤差;4)優(yōu)化;5)提??;6)簡化。


聚類采用標準聚類方法,一次組合兩個相近的族進行聚類,聚類結束后對聚類的結果進行求平均處理,計算時將每組中所有鏈路的權重設置為每個組權重的平均值,接下來將鏈接權重較低的組去除,將留下的組進行單位偏差優(yōu)化,優(yōu)化后的組進行提取工作,通過直接將每個單元的偏差和傳入權重轉換成具有加權前因的規(guī)則來創(chuàng)建,最后對提取到的規(guī)則簡化。MOFN的算法示例如下圖所示。

? ? ? ?

圖5:MOFN 算法


規(guī)則生成可以總結出可靠可信的神經網絡的計算規(guī)則,他們有些是基于統(tǒng)計分析,或者是從模型中推導,在保障神經網絡在關鍵領域的應用提供了安全保障的可能。

?

(4)顯著性圖

?

顯著性圖方法使用一系列可視化的技術,從模型中生成解釋,該解釋通常表達了樣本特征對于模型輸出的影響,從而一定程度上解釋模型的預測。常見方法有反卷積、梯度方法等。Zeiler [8]提出了可視化的技巧,使用反卷積觀察到訓練過程中特征的演化和影響,對CNN內部結構與參數進行了一定的“解讀”,可以分析模型潛在的問題,網絡深度、寬度、數據集大小對網絡性能的影響,也可以分析了網絡輸出特征的泛化能力以及泛化過程中出現的問題。

?

用反卷積實現特征可視化

?

為了解釋卷積神經網絡如何工作,就需要解釋CNN的每一層學習到了什么東西。為了理解網絡中間的每一層,提取到特征,論文通過反卷積的方法,進行可視化。反卷積網絡可以看成是卷積網絡的逆過程。反卷積可視化以各層得到的特征圖作為輸入,進行反卷積,得到反卷積結果,用以驗證顯示各層提取到的特征圖。


Eg:假如你想要查看Alexnet的conv5提取到了什么東西,就用conv5的特征圖后面接一個反卷積網絡,然后通過:反池化、反激活、反卷積,這樣的一個過程,把本來一張13*13大小的特征圖(conv5大小為13*13),放大回去,最后得到一張與原始輸入圖片一樣大小的圖片(227*227)。


反池化過程

?

池化是不可逆的過程,然而可以通過記錄池化過程中,最大激活值的坐標位置。然后在反池化的時候,只把池化過程中最大激活值所在的位置坐標的值激活,其它的值置為0,當然這個過程只是一種近似,因為在池化的過程中,除了最大值所在的位置,其它的值也是不為0的。


? ? ? ? ? ?

圖 6?

?

反激活

?

在Alexnet中,relu函數是用于保證每層輸出的激活值都是正數,因此對于反向過程,同樣需要保證每層的特征圖為正值,也就是說這個反激活過程和激活過程沒有什么差別,都是直接采用relu函數。

?

另一些可視化方法可視化方法主要是通過deconv的方法將某一層特征圖的Top-k激活反向投射到原圖像上,從而判斷該激活值主要識別圖像的什么部分。這就要求針對每一層都必須有對應的逆向操作。


具體而言,對于MaxPooling層,在前饋時使用switch變量來記錄最大值來源的index,然后以此近似得到Unpooling。對于Relu層,直接使用Relu層。而對于conv層,使用deconv,即使用原來卷積核的轉置作為卷積核。通過可視化方法,對訓練完成的模型在ImageNet的數據各層可視化后,可以得到不同結構的重建特征圖,與原圖進行對比能夠直觀地看到網絡各層學習到的信息:


? ? ? ? ?

圖 7:第二層學習邊緣,角落信息;第三層學到了一些比較復雜的模式,網狀,輪胎;第四層展示了一些比較明顯的變化,但是與類別更加相關了,比如狗臉,鳥腿;第五層則看到了整個物體,比如鍵盤,狗。


同時,通過可視化,我們也可以發(fā)現模型的缺陷,例如某些層學習到的特征雜亂無章,通過單獨訓練,可以提升模型效果。另外的方法也被采用,例如使用遮擋的方法,通過覆蓋輸入的某部分特征,分析輸出和模型計算的中間參數,得到模型對被遮擋部分的敏感性,生成敏感性圖,或者用梯度方法得到輸出對于輸入圖像像素的梯度,生成梯度熱力圖。


總結性的工作來自ETH Zurch的Enea Ceolini [9]證明了基于梯度的歸因方法(gradient-based Attribution methods)存在形式上\聯系,文章證明了在一定情況下,諸如sigma-LRP[10]、DeepLIF[11]方法間存在的等價和近似關系,并基于統(tǒng)一的數學表達,提出了一個更普適的梯度歸因方法框架Sensitivity-n,用于解釋模型輸入輸出之間的關聯。

?

深度學習的歸因分析用于解釋輸入的每個變量對于神經網絡的貢獻(contribution),或相關程度(relevance),嚴格來說,假設網絡的輸入為x = [x1, ..., xN ],C個輸出神經元對應的輸出為S(x) = [S1(x), ..., SC (x)],歸因分析的目標便是找到xi對于每個神經元輸出的貢獻,Rc = [Rc 1 , ..., Rc N ]。


基于梯度的方法可以被看作直接使用輸出對輸出的特征求梯度,用梯度的一定變換形式表示其重要性,工作中展示的考慮不同大小特征區(qū)域熱力圖如下:

? ? ? ?

圖 8


文章分析了不同方法的效果差異:


? ? ? ??

圖?9

?

通過證明,得到通用的梯度方法表示為:


? ? ? ?? ? ??


基于上述推導,作者得以提出了sensitivity-n方法,總結了相似的梯度方法,并使后續(xù)工作可以在更廣泛的框架下討論。


2.2


深度網絡表示的可解釋性

?

盡管存在大量神經網絡運算,深度神經網絡內部由少數的子組件構成:例如,數十億個ResNet的操作被組織為約100層,每層計算64至2048信息通道像素。對深層網絡表示的解釋旨在了解流經這些信息瓶頸的數據的作用和結構??梢园雌淞6葎澐譃槿齻€子類:基于層的解釋,將流經層的所有信息一起考慮;基于神經元的解釋,用來說明單個神經元或單個filter通道的情況;此外基于(其他)表示向量的解釋,例如概念激活向量(CAV)[12]是通過識別和探測與人類可解釋概念一致的方向來解釋神經網絡表示,用單個單元的線性組合所形成的表示向量空間中的其他方向作為其表征向量。

?

(1)基于層的解釋


Bengio等人[13]分析了在圖片分類任務中,不同層的神經網絡的功能和可遷移性,以及不同遷移方法對結果的影響。從實驗的角度分析了神經網絡不同層參數具有的一些性質,證明了模型遷移方法的普遍效果。作者驗證了淺層神經網絡在特征抽取功能上的通用性和可復用性,針對實驗結果提出了可能的解釋,表明影響遷移學習效果的因素有二:

?

1)?共同訓練變量的影響


通過反向傳播算法訓練的神經網絡,結點參數并非單獨訓練,其梯度計算依賴于一系列相關結點,因此遷移部分結點參數會引起相關結點的訓練困難。

?

2)?遷移參數的通用性能和專用性


網絡中較淺層網絡的功能較為通用,而高層網絡與網絡的訓練目標更加相關。若A、B任務不想關,則專用于A的參數遷移后會影響對B任務的學習。

? ? ? ?


圖10


實驗結果發(fā)現,在不同的實驗條件下,兩種因素會不同程度決定遷移學習的效果。例如,當遷移較深層網絡并固定參數時,高層參數的專用性會導致在遷移到的任務上表現不佳,但這時共同訓練的變量影響會減小,因為大部分參數都被遷移獲得;當遷移自身的參數并固定時,在層數較小的情況下出現了性能下降,這說明了共同訓練的變量對表現的影響。另外,實驗發(fā)現完全不相關的任務對應的遷移,在經過充分微調后仍然能提升模型的性能,這證明了參數遷移是一個通用的提升模型性能的方法。

?

牛津大學Karen Simonyan等人[14]為解決深層卷積神經網絡分類模型的可視化問題,提出了兩種方法:第一種生成圖像使得類得分最大化,再將類可視化;第二種計算給定圖像和類的類顯著性映射,同時還證明了這種方法可以使用分類轉換網絡的弱監(jiān)督對象分類。整個文章主要有三個貢獻:證明了理解分類CNN模型可以使用輸入圖像的數值優(yōu)化;提出了一種在圖像中提取指定類別的空間表征信息(image-specific class saliency map)的方法(只通過一次back-propagation),并且這種saliency maps可以用于弱監(jiān)督的物體定位。證明gradient-based的可視化方法可以推廣到deconvolutional network的重構過程。

?

在第一類方法中,文中采用公式(1)進行圖像分類模型的可視化操作,其中表示c的分數,由ConvNet的分類層對圖像I計算得到,是正則化參數。可視化過程與ConvNet訓練過程類似,不同之處在于對圖像的輸入做了優(yōu)化,權重則固定為訓練階段得到的權重。圖1所示為使用零圖像初始化優(yōu)化,然后將訓練集的均值圖像添加到結果中的輸出圖。


? ? ? ?? ? ? ? (1)


? ? ? ?

圖 11?


在第二類方法中,給定一張圖像I0,在I0附近使用一階泰勒展開的線性函數來近似Sc(I):其中w即為Sc對于圖像I的導數在I0點的值:。

?

在給定的圖像I0(m行n列)和對應的類別c中,要求得它對應saliency map M (M∈Rmxn),首先按照上述公式利用back-propagation 可以求得導數w,然后對w元素進行重新排列即可得到Saliency Map。Saliency Map是利用訓練好的CNN直接提取的,無需使用額外的標注,而且對于某個特定類別的image-specific saliency map的求解是很快的,只需要一次back-propagation。可視化結果如圖2所示

? ? ? ?

圖 12


在第二類方法中得到的Saliency Map編碼了給定圖像中特定類別的物體位置信息,所以它可以被用來進行物體定位(盡管它在分類任務上得到訓練,弱監(jiān)督學習)。給定一張圖像和其對應的Saliency Map,可以使用GraphCut顏色分割模型來得到物體分割mask。要使用顏色分割模型主要是因為Saliency Map只能捕捉到一個物體最具有區(qū)分性的部分,它無法highlight整個物體,因此需要將threshold map傳遞到物體的其他區(qū)域,本文使用colour continuity cues來達到這個目的。前景和背景模型都被設置為高式混合模型,高于圖像Saliency distribution 95%的像素被視為前景,Saliency低于30%的像素被視為背景。標記了前景和背景像素之后,前景像素的最大連接區(qū)域即為對應物體的分割mask(使用GraphCut算法),效果如圖3所示。

?

圖 13


此外,Zhang et. al. 的工作[15]發(fā)現網絡淺層具有統(tǒng)計輸入信息的功能,并發(fā)現其和共享的特征信息一樣,對遷移帶來的性能提升起到了幫助。通過從相同checkpoint訓練,發(fā)現參數遷移,可以使模型損失每次都保持在相同的平面內(basin),具有相似的地形,但隨機初始化的參數每次損失所在的訓練平面不同。文章支持了高層、低層網絡具有的不同功能,發(fā)現高層網路對于參數的改變更加敏感。

?

(2)基于神經元的解釋

?

香港中文大學助理教授周博磊的工作[16]為 CAM 技術的奠定了基礎,發(fā)現了 CNN 中卷積層對目標的定位功能。在改文中,作者對場景分類任務中訓練 CNN 時得到的目標檢測器展開了研究。由于場景是由物體組成的,用于場景分類的 CNN 會自動發(fā)現有意義的目標檢測器,它們對學到的場景類別具有代表性。作者發(fā)現,單個網絡可以支持多個級別的抽象(如邊緣、紋理、對象、場景),同一個網絡可以在無監(jiān)督環(huán)境下,在單個前向傳播過程中同時完成場景識別和目標定位。

? ? ? ?

圖 14:估計每個神經元的感受野


針對每個神經元,作者估計出了其確切地感受野,并觀察到激活區(qū)域傾向于隨著層的深度增加而在語義上變得更有意義(這是啟發(fā)后來一系列計算機視覺神經網絡框架的理論基礎)。

?

周博磊CVPR 2017[17]提出了一種名為“Network Dissection”的通用框架,假設“單元的可解釋性等同于單元的隨機線性結合”,通過評估單個隱藏單元與一系列語義概念間的對應關系,來量化 CNN 隱藏表征的可解釋性。


這種方法利用大量的視覺概念數據集來評估每個中間卷積層隱藏單元的語義。這些帶有語義的單元被賦予了大量的概念標簽,這些概念包括物體、組成部分、場景、紋理、材料和顏色等。該方法揭示 CNN 模型和訓練方法的特性,而不僅僅是衡量他們的判別能力。


論文發(fā)現:人類可解釋的概念有時候會以單一隱藏變量的形式出現在這些網絡中;當網絡未受限于只能用可解釋的方式分解問題時,就會出現這種內部結構。這種可解釋結構的出現意味著,深度神經網絡也許可以自發(fā)學習分離式表征(disentangled representations)。


眾所周知,神經網絡可以學習某種編碼方式,高效利用隱藏變量來區(qū)分其狀態(tài)。如果深度神經網絡的內部表征是部分分離的,那么檢測斷分離式結構并讀取分離因數可能是理解這種機制的一種方法。同時該論文指出可解釋性是與坐標軸對齊(axis-aligned)的,對表示(representation)進行翻轉(rotate),網絡的可解釋能力會下降,但是分類性能不變。越深的結構可解釋性越好,訓練輪數越多越好。而與初始化無關dropout會增強可解釋性而Batch normalization會降低可解釋性。

??圖 15


麻省理工大學CSAIL的Jonathan Frankle和Michael Carbin論文[18]中指出神經網絡剪枝技術可以將受過訓練的網絡的參數減少90%以上,在不影響準確性的情況下,降低存儲要求并提高計算性能。


然而,目前的經驗是通過剪枝產生的稀疏架構很難從頭訓練,也很難提高訓練性能。作者發(fā)現標準的剪枝技術自然而然地可以得到子網絡,它們能在某些初始化條件下有效地進行訓練。在此基礎之上,作者提出了彩票假設:任何密集、隨機初始化的包含子網絡(中獎彩票)的前饋網絡 ,當它們被單獨訓練時,可以在相似的迭代次數內達到與原始網絡相當的測試精度。

?

具體而言,作者通過迭代式而定剪枝訓練網絡,并剪掉最小的權重,從而得到「中獎彩票」。通過大量實驗,作者發(fā)現,剪枝得到的中獎彩票網絡比原網絡學習得更快,泛化性能更強,準確率更高。剪枝的主要的步驟如下:

?

(1)隨機初始化一個神經網絡?? ? ? ?

(2)將網絡訓練 j 輪,得到參數? ? ??

(3)剪掉?中 p% 的參數,得到掩模 m

(4)將剩余的參數重置為中的值,生成中獎彩票?


圖 16:虛線為隨機才應該能得到的稀疏網絡,實現為中獎彩票。

?

此外,加利福尼亞大學的ZHANG ?Quanshi和ZHU ?Song-chun 綜述了近年來神經網絡可解釋性方面的研究進展[19]。文章以卷積神經網絡(CNN)為研究對象,回顧了CNN表征的可視化、預訓練CNN表征的診斷方法、預訓練CNN表征的分離方法、帶分離表示的CNN學習以及基于模型可解釋性的中端學習。


最后,討論了可解釋人工智能的發(fā)展趨勢,并且指出了以下幾個未來可能的研究方向:1)將conv層的混沌表示分解為圖形模型或符號邏輯;2)可解釋神經網絡的端到端學習,其中間層編碼可理解的模式(可解釋的cnn已經被開發(fā)出來,其中高轉換層中的每個過濾器代表一個特定的對象部分);3)基于CNN模式的可解釋性表示,提出了語義層次的中端學習,以加快學習過程;4)基于可解釋網絡的語義層次結構,在語義級別調試CNN表示將創(chuàng)建新的可視化應用程序。

?

網絡模型自身也可以通過不同的設計方法和訓練使其具備一定的解釋性,常見的方法主要有三種:注意力機制網絡;分離表示法;生成解釋法。基于注意力機制的網絡可以學習一些功能,這些功能提供對輸入或內部特征的加權,以引導網絡其他部分可見的信息。分離法的表征可以使用單獨的維度來描述有意義的和獨立的變化因素,應用中可以使用深層網絡訓練顯式學習的分離表示。在生成解釋法中,深層神經網絡也可以把生成人類可理解的解釋作為系統(tǒng)顯式訓練的一部分。


2.3


生成自我解釋的深度學習系統(tǒng)

網絡模型自身也可以通過不同的設計方法和訓練使其具備一定的解釋性,常見的方法主要有三種:注意力機制網絡;分離表示法;生成解釋法?;谧⒁饬C制的網絡可以學習一些功能,這些功能提供對輸入或內部特征的加權,以引導網絡其他部分可見的信息。分離法的表征可以使用單獨的維度來描述有意義的和獨立的變化因素,應用中可以使用深層網絡訓練顯式學習的分離表示。在生成解釋法中,深層神經網絡也可以把生成人類可理解的解釋作為系統(tǒng)顯式訓練的一部分。


(1)注意力機制網絡

?

注意力機制的計算過程可以被解釋為:計算輸入與其中間過程表示之間的相互權重。計算得到的與其他元素的注意力值可以被直觀的表示。

在Dong Huk Park 發(fā)表于CVPR2018的[20]一文中,作者提出的模型可以同時生成圖像與文本的解釋。其方法在于利用人類的解釋糾正機器的決定,但當時并沒有通用的包含人類解釋信息與圖像信息的數據集,因此,作者整理了數據集ACT-X與VQA-X,并在其上訓練提出了P-JX(Pointing and Justification Explanation)模型,檢測結果如圖所示。

? ? ? ?

圖 17:P-JX模型檢測結果


模型利用「attention」機制得到圖像像素的重要性,并據此選擇輸出的視覺圖,同時,數據集中的人類解釋文本對模型的預測作出糾正,這樣模型可以同時生成可視化的解釋,亦能通過文字說明描述關注的原因。例如在上圖中,對問題「Is this a healthy meal」,針對圖片,關注到了熱狗,因此回答「No」,圖片的注意力熱力圖給出了可視化的解釋,同時文本亦生成了對應的文本解釋。作者認為,利用多模態(tài)的信息可以更好地幫助模型訓練,同時引入人類的知識糾錯有利于提高模型的可解釋性。

?

由于類別之間只有通過細微局部的差異才能夠被區(qū)分出來,因此「fine-grained」分類具有挑戰(zhàn)性,在Xiao et. al. 的[21]中,作者將視覺「attention」應用到「fine-grained」分類問題中,盡管注意力的單元不是出于可解釋性的目的而訓練的,但它們可以直接揭示信息在網絡種的傳播地圖,可以作為一種解釋。由于細粒度特征不適用bounding box標注,因此該文章采用「弱監(jiān)督學習」的知識來解決這一問題。

?

該文章中整合了3種attention模型:「bottom-up」(提供候選者patch),「object-level top-down」(certain object相關patch),和「part-level top-down 」(定位具有分辨能力的parts),將其結合起來訓練「domain-specific深度網絡」。


? ? ? ? ? ? ?

圖 18:Domain-specific深度網絡結構示意圖


domain-specific深度網絡結構示意圖如圖 18 所示:實現細粒度圖像分類需要先看到物體,然后看到它最容易判別的部分。通過bottom-up生成候選patches,這個步驟會提供多尺度,多視角的原始圖像。


如果object很小,那么大多數的patches都是背景,因此需要top-down的方法來過濾掉這些噪聲patches,選擇出相關性比較高的patches。尋找前景物體和物體的部分分別采用「object-level」和「part-level」兩個過程,二者由于接受的patch不同,使其功能和優(yōu)勢也不同。在object-level中對產生的patches選出包含基本類別對象的patch,濾掉背景。part-level分類器專門對包含有判別力的局部特征進行處理。


有的patch被兩個分類器同時使用,但該部分代表不同的特征,將每幅圖片的object-level和part-level的分數相加,得到最終的分數,即分類結果。

?

(2)分離表示法

?

分離表示目標是用高低維度的含義不同的獨立特征表示樣本,過去的許多方法提供了解決該問題的思路,例如PCA、ICA、NMF等。深度網絡同樣提供了處理這類問題的方法。

?

Chen et. al. 在加州大學伯克利分校的工作[22]曾被 OpenAI 評為 2016 年 AI 領域的五大突破之一,在 GAN 家族的發(fā)展歷史上具有里程碑式的意義。對于大多數深度學習模型而言,其學習到的特征往往以復雜的方式在數據空間中耦合在一起。如果可以對學習到的特征進行解耦,就可以得到可解釋性更好的編碼。對于原始的 GAN 模型而言,生成器的輸入為連續(xù)的噪聲輸入,無法直觀地將輸入的維度與具體的數據中的語義特征相對應,即無法得到可解釋的數據表征。為此,InfoGAN 的作者以無監(jiān)督的方式將 GAN 的輸入解耦為兩部分:


(1)不可壓縮的 z,該部分不存在可以被顯式理解的語義信息。

(2)可解釋的隱變量 c,該部分包含我們關心的語義特征(如 MNIST 數據集中數字的傾斜程度、筆畫的粗細),與生成的數據之間具有高相關性(即二者之間的互信息越大越好)。


? ? ??

?

若 c 對生成數據 G(z,c)的可解釋性強,則 c 與 G(z,c) 之間的交互信息較大。為了實現這一目標,作者向原始 GAN 的目標函數中加入了一個互信息正則化項,得到了如下所示的目標函數:


? ? ??

?

然而,在計算新引入的正則項過程中,模型難以對后驗分布 P(C|X) 進行采樣和估計。因此,作者采用變分推斷的方法,通過變分分布 Q(C|X) 逼近 P(C|X)。最終,InfoGAN 被定義為了如下所示的帶有變分互信息正則化項和超參數 λ 的 minmax 博弈:


? ? ? ?

圖 19:InfoGAN 框架示意圖


張拳石團隊的[23]一文中,提出了一種名為「解釋圖」的圖模型,旨在揭示預訓練的 CNN 中隱藏的知識層次。

?

在目標分類和目標檢測等任務中,端到端的「黑盒」CNN模型取得了優(yōu)異的效果,但是對于其包含豐富隱藏模式的卷積層編碼,仍然缺乏合理的解釋,要對 CNN 的卷積編碼進行解釋,需要解決以下問題:


  • CNN 的每個卷積核記憶了多少種模式?

  • 哪些模式會被共同激活,用來描述同一個目標部分?

  • 兩個模式之間的空間關系如何?


? ? ? ??

圖 20:解釋圖結構示意圖

?

解釋圖結構示意圖表示了隱藏在 CNN 卷積層中的知識層次。預訓練 CNN 中的每個卷積核可能被不同的目標部分激活。本文提出的方法是以一種無監(jiān)督的方式將不同的模式從每個卷積核中解耦出來,從而使得知識表征更為清晰。

?

具體而言,解釋圖中的各層對應于 CNN 中不同的卷積層。解釋圖的每層擁有多個節(jié)點,它們被用來表示所有候選部分的模式,從而總結對應的卷積層中隱藏于無序特征圖中的知識,圖中的邊被用來連接相鄰層的節(jié)點,從而編碼它們對某些部分的共同激活邏輯和空間關系。將一張給定的圖像輸入給 CNN,解釋圖應該輸出:(1)某節(jié)點是否被激活(2)某節(jié)點在特征圖中對應部分的位置。由于解釋圖學習到了卷積編碼中的通用知識,因此可以將卷積層中的知識遷移到其它任務中。


? ? ? ???

圖 21:解釋圖中各部分模式之間的空間關系和共同激活關系圖

?

解釋圖中各部分模式之間的空間關系和共同激活關系。高層模式將噪聲濾除并對低層模式進行解耦。從另一個層面上來說,可以將低層模式是做高層模式的組成部分。

?

另外,張拳石[24]認為在傳統(tǒng)的CNN中,一個高層過濾器可能會描述一個混合的模式,例如過濾器可能被貓的頭部和腿部同時激活。這種高卷積層的復雜表示會降低網絡的可解釋性。針對此類問題,作者將過濾器的激活與否交由某個部分控制,以達到更好的可解釋性,通過這種方式,可以明確的識別出CNN中哪些對象部分被記憶下來進行分類,而不會產生歧義。

模型通過對高卷積層的每個filter計算loss,種loss降低了類間激活的熵和神經激活的空間分布的熵,每個filter必須編碼一個單獨的對象部分,并且過濾器必須由對象的單個部分來激活,而不是重復地出現在不同的對象區(qū)域。

? ? ? ?

圖 22


Hinton的膠囊網絡 [25],是當年的又一里程碑式著作。作者通過對CNN的研究發(fā)現CNN存在以下問題:1) CNN只關注要檢測的目標是否存在,而不關注這些組件之間的位置和相對的空間關系;2) CNN對不具備旋轉不變性,學習不到3D空間信息;3)神經網絡一般需要學習大量案例,訓練成本高。為了解決這些問題,作者提出了「膠囊網絡」,使網絡在減少訓練成本的情況下,具備更好的表達能力和解釋能力。

?

「膠囊(Capsule)」可以表示為一組神經元向量,用向量的長度表示物體「存在概率」,再將其壓縮以保證屬性不變,用向量的方向表示物體的「屬性」,例如位置,大小,角度,形態(tài),速度,反光度,顏色,表面的質感等。


和傳統(tǒng)的CNN相比,膠囊網絡的不同之處在于計算單位不同,傳統(tǒng)神經網絡以單個神經元作為單位,capsule以一組神經元作為單位。相同之處在于,CNN中神經元與神經元之間的連接,capsNet中capsule與capsule之間的連接,都是通過對輸入進行加權的方式操作。


膠囊網絡在計算的過程中主要分為四步:


  • 輸入向量ui的W矩陣乘法;

  • 輸入向量ui的標量權重c;

  • 加權輸入向量的總和;

  • 向量到向量的非線性變換。


網絡結構如下圖所示,其中「ReLI Conv1」是常規(guī)卷積層;「PrimaryCaps」構建了32個channel的capsules,得到6*6*8的輸出;「DigiCaps」對前面1152個capules進行傳播與「routing」更新,輸入是1152個capsules,輸出是10個capules,表示10個數字類別,最后用這10個capules去做分類。

? ? ? ?

圖23:膠囊網絡網絡結構示意圖


(3)生成解釋法

?

除了上文介紹的諸多方法外,在模型訓練的同時,可以設計神經網絡模型,令其產生能被人類理解的證據,生成解釋的過程也可被顯式地定義為模型訓練的一部分。

?

Wagner 2019[26]首次實現了圖像級別的細粒度解釋。文中提出的「FGVis」,避免了圖像的可解釋方法中對抗證據的問題,傳統(tǒng)方法采用添加正則項的方式緩解,但由于引入了超參,人為的控制導致無法生成更加可信的,細粒度的解釋。文中的FGVis方法基于提出的「對抗防御(Adversarial Defense)」方法,通過過濾可能導致對抗證據的樣本梯度,從而避免這個問題。該方法并不基于任何模型或樣本,而是一種優(yōu)化方法,并單獨對生成解釋圖像中的每個像素優(yōu)化,從而得到細粒度的圖像解釋,檢測示意圖如圖[24] 所示。

? ? ? ?

圖24:FGVis檢測結果示意圖

?

另一個視覺的例子來自Antol et. 的Vqa[27],文章將視覺問題的「回答任務(Vqa)」定義為給定一個圖像和一個開放式的、關于圖像的自然語言問題,并提出了Vqa的「基準」和「回答方法」,同時還開發(fā)了一個兩通道的視覺圖像加語言問題回答模型。


文章首先對Vqa任務所需的數據集進行采集和分析,然后使用baselines為「基準」對「方法」進行評估,基準滿足4個條件:1) 隨機,2)答案先驗, 3)問題先驗,4)最近鄰。


「方法」使用文中開發(fā)的兩個視覺(圖像)通道加語言(問題)通道通過多層感知機結合的模型,結構圖如圖所示。視覺圖像通道利用 VGGNet最后一層隱藏層的激活作為 4096- dim 圖像嵌入,語言問題通道使用三種方法嵌入:


  • 構建「詞袋問題(BoW Q)」;

  • 「LSTM Q 」具有一個隱藏層的lstm對1024維的問題進行嵌入;

  • 「deeper LSTM Q」。最終使用softmax方法輸出K個可能的答案。

? ? ? ?

圖 25:deeper LSTM Q + norm I 結構圖

?

三. 總結



為了使深度學習模型對用戶而言更加「透明」,研究人員近年來從「可解釋性」和「完整性」這兩個角度出發(fā),對深度學習模型得到預測、決策結果的工作原理和深度學習模型本身的內部結構和數學操作進行了解釋。至今,可解釋性深度學習領域的研究人員在「網絡對于數據的處理過程」、「網絡對于數據的表征」,以及「如何構建能夠生成自我解釋的深度學習系統(tǒng)」三個層次上均取得了可喜的進展:


  • 就網絡工作過程而言,研究人員通過設計線性代理模型、決策樹模型等于原始模型性能相當,但具有更強可解釋性的模型來解釋原始模型;此外,研究人員還開發(fā)出了顯著性圖、CAM 等方法將于預測和決策最相關的原始數據與計算過程可視化,給出一種對深度學習模型的工作機制十分直觀的解釋。

  • 就數據表征而言,現有的深度學習解釋方法涉及「基于層的解釋」、「基于神經元的解釋」、「基于表征向量的解釋」三個研究方向,分別從網絡層的設計、網絡參數規(guī)模、神經元的功能等方面探究了影響深度學習模型性能的重要因素。

  • 就自我解釋的深度學習系統(tǒng)而言,目前研究者們從注意力機制、表征分離、解釋生成等方面展開了研究,在「視覺-語言」多模態(tài)任務中實現了對模型工作機制的可視化,并且基于 InfoGAN、膠囊網絡等技術將對學習有不同影響表征分離開來,實現了對數據表征的細粒度控制。

?

然而,現有的對深度學習模型的解釋方法仍然存在諸多不足,面臨著以下重大的挑戰(zhàn):


  • 現有的可解釋性研究往往針對「任務目標」和「完整性」其中的一個方向展開,然而較少關注如何將不同的模型解釋技術合并起來,構建更為強大的模型揭示方法。

  • 缺乏對于解釋方法的度量標準,無法通過更加嚴謹的方式衡量對模型的解釋結果。

  • 現有的解釋方法往往針對單一模型,模型無關的解釋方法效果仍有待進一步提升。

  • 對無監(jiān)督、自監(jiān)督方法的解釋工作仍然存在巨大的探索空間。


推薦閱讀

[0]?Gilpin, Leilani H., et al. "Explaining explanations: An overview of interpretability of machine learning." 2018 IEEE 5th International Conference on data science and advanced analytics (DSAA). IEEE, 2018.

[1] Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. "'Why should I trust you?'?Explaining the predictions of any classifier."?Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016.

[2] Sato, Makoto, and Hiroshi Tsukimoto. "Rule extraction from neural networks via decision tree induction."?IJCNN'01. International Joint Conference on Neural Networks. Proceedings (Cat. No. 01CH37222). Vol. 3. IEEE, 2001.

[3] Zilke, Jan Ruben, Eneldo Loza Mencía, and Frederik Janssen. "Deepred–rule extraction from deep neural networks."?International Conference on Discovery Science. Springer, Cham, 2016.

[4] Schmitz, Gregor PJ, Chris Aldrich, and Francois S. Gouws. "ANN-DT: an algorithm for extraction of decision trees from artificial neural networks."?IEEE Transactions on Neural Networks?10.6 (1999): 1392-1401.

[5] Gallant, Stephen I. "Connectionist expert systems."?Communications of the ACM?31.2 (1988): 152-169.

[6] Tsukimoto, Hiroshi. "Extracting rules from trained neural networks."?IEEE Transactions on Neural networks?11.2 (2000): 377-389.

[7] Towell, Geoffrey G., and Jude W. Shavlik. "Extracting refined rules from knowledge-based neural networks."?Machine learning?13.1 (1993): 71-101.

[8] Zeiler, Matthew D., and Rob Fergus. "Visualizing and understanding convolutional networks."?European conference on computer vision. Springer, Cham, 2014.

[9] Ancona, Marco, et al. "Towards better understanding of gradient-based attribution methods for deep neural networks."?arXiv preprint arXiv:1711.06104?(2017).

[10] Bach, Sebastian, et al. "On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation."?PloS one?10.7 (2015): e0130140.

[11] Shrikumar, Avanti, Peyton Greenside, and Anshul Kundaje. "Learning important features through propagating activation differences."?arXiv preprint arXiv:1704.02685?(2017).

[12] Kim, Been, et al. "Tcav: Relative concept importance testing with linear concept activation vectors." (2018).

[13] Yosinski, Jason, et al. "How transferable are features in deep neural networks?."?Advances in neural information processing systems. 2014.

[14] Simonyan, Karen, Andrea Vedaldi, and Andrew Zisserman. "Deep inside convolutional networks: Visualising image classification models and saliency maps."?arXiv preprint arXiv:1312.6034?(2013).

[15] Neyshabur, Behnam, Hanie Sedghi, and Chiyuan Zhang. "What is being transferred in transfer learning?."?Advances in Neural Information Processing Systems?33 (2020).

[16] Zhou, Bolei, et al. "Object detectors emerge in deep scene cnns."?arXiv preprint arXiv:1412.6856?(2014).

[17] Bau, David, et al. "Network dissection: Quantifying interpretability of deep visual representations."?Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.

[18] Frankle, Jonathan, and Michael Carbin. "The lottery ticket hypothesis: Training pruned neural networks."?arXiv preprint arXiv:1803.03635?2 (2018).

[19] Zhang, Quan-shi, and Song-Chun Zhu. "Visual interpretability for deep learning: a survey."?Frontiers of Information Technology & Electronic Engineering?19.1 (2018): 27-39.

[20] Huk Park, Dong, et al. "Multimodal explanations: Justifying decisions and pointing to the evidence."?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

[21] Xiao, Tianjun, et al. "The application of two-level attention models in deep convolutional neural network for fine-grained image classification."?Proceedings of the IEEE conference on computer vision and pattern recognition. 2015.

[22] Chen, Xi, et al. "Infogan: Interpretable representation learning by information maximizing generative adversarial nets."?Advances in neural information processing systems. 2016.

[23] Zhang, Quanshi, et al. "Interpreting cnn knowledge via an explanatory graph."?arXiv preprint arXiv:1708.01785?(2017).

[24] Zhang, Quanshi, Ying Nian Wu, and Song-Chun Zhu. "Interpretable convolutional neural networks."?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

[25] Sabour, Sara, Nicholas Frosst, and Geoffrey E. Hinton. "Dynamic routing between capsules."?Advances in neural information processing systems. 2017.

[26] Wagner, Jorg, et al. "Interpretable and fine-grained visual explanations for convolutional neural networks."?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.

[27] Antol, Stanislaw, et al. "Vqa: Visual question answering."?Proceedings of the IEEE international conference on computer vision. 2015.


? ? ??

“整理不易,三連
瀏覽 198
點贊
評論
收藏
分享

手機掃一掃分享

分享
舉報
評論
圖片
表情
推薦
點贊
評論
收藏
分享

手機掃一掃分享

分享
舉報

感谢您访问我们的网站,您可能还对以下资源感兴趣:

国产秋霞理论久久久电影-婷婷色九月综合激情丁香-欧美在线观看乱妇视频-精品国avA久久久久久久-国产乱码精品一区二区三区亚洲人-欧美熟妇一区二区三区蜜桃视频 丝袜诱惑AV| 欧美888| 黄色福利网| 99久久久久久久无码| 午夜亚洲国产一区视频网站 | 成人A片一级| 人人妻人人操人人| 欧美熟妇精品黑人巨大一二三区 | 91综合在线| 江苏妇搡BBBB搡BBB| 国内免费av| 国产最新视频| 五月开心激情网| 日韩无码免费看| 91在线无码精品秘国产-百度| 久久久久久免费毛片精品| www.欧美视频| 日韩欧美一区二区在线观看| 后入av| 老熟女搡BBBB搡BBBB视频| 熟女3p| 99久久综合国产精品二区| 国产在线一二三| 欧美性爱香蕉视频| 狼人伊人综合| 韩国色情中文字幕| 久久精彩偷拍视频| 淫色人妻网| 国产三级在线| 中文字幕精品人妻在线| 久操影视| 男人天堂网站| 99re视频| 久久久久久久| av一区二区三区| 黄片视频免费看| 91在线无码精品秘国产三年| 人妻少妇视频| 99爱视频| 天天日夜夜爽| 91爱搞搞| 国产码在线成人网站| 精品一二三区| 国产精品一区二区三区四区| 日韩gay| 亚洲视频在线免费观看| 色哥网在线一区| 日韩欧美亚洲| 专业操美女视频网站| 91成人电影| 中文字幕浅井香舞被黑人俘虏| 成人黄色视频网站| 无码一区精品久久久成人| 欧美日日| 国产探花视频在线免费观看| 91性爱小视频| 欧美性爱天天| 精品孕妇一级A片免费看| 成人做爱免费看| A级视频网| 吴梦梦一区二区在线观看| 欧一美一伦一A片| 免费看黄色电影| 午夜老湿机| 黄色成人网站大全| 国产一区二区波多野结衣| 亚洲AV无码成人H动漫| 无码热| 深爱激情五月婷婷| www.欧美视频| 黄片视频在线| 成人免费视频一区二区| 日本天堂在线| 中文在线a√在线8| 先锋影音AV资源网| 欧美午夜福利视频| 欧美日韩毛| 亚洲三级片在线观看| 躁BBB躁BBB躁BBBBBB日| 亚洲黄色天堂| 在线91视频| 无码三级在线播放| 香蕉福利网| 亚洲黄色在线观看视频| 黄色成人在线观看视频| 无码人妻丰满熟妇精品| 日韩中文无| 一二三区视频| 日本成人黄色视频| 日本无码人妻| 青春草在线观看| 人妻无码一二三区免费| 水果派解说A∨无码区| 国产特级婬片免费看| 色97| 日韩在线观看网址| 九九午夜| 琪琪色在线视频| 婷婷无码视频| 国产乱国产乱老熟300部视频 | 69网站| 天天操一操| 91在线无码精品秘入口| 亚洲黄色视频网站| 国产中文字幕AV在线播放| 日本不卡一区二区三区四区| 国产日韩在线播放| 成人自拍视频在线| 一本到在线视频| 狠狠躁18三区二区一区免费人| 国产91探花秘入口| 陈冠希和张柏芝mv| 天天日夜夜爽| 日韩高清久久| 欧美老女人逼| 六月激情丁香| 草草影院第一页| 婷婷丁香五月社区亚洲| 中文字幕一区二区6页| 东北毛片| 久色性爱视频| 亚洲精品国产精品乱码不卡√香蕉| 国产激情综合在线| 五月大香蕉| 操逼操123| 18毛片| 亚洲成人视频网站| 欧美日韩中文字幕| 嫖中国站街老熟女HD| 亚洲免费视频网站| 欧美成人无码一区二区三区| 久久婷婷综合网| H片在线播放| 天天操天天干天天日| 日韩午夜欧美精品一二三区| 91操操操| 久久久久久久久久国产精品| 午夜蜜桃人妻一区二区| 91精品综合| 韩日无码| 亚洲国产精品自| 色色网的五月天| AV乱伦小说| 国产A片免费观看| 肏屄免费视频| 亚洲大哥天天干| 欧美成人五月天| 国产精品九九九九九九| 丁香社区五月天| 日韩色区| 黄片无码| 俺去啦俺也去| 中国一级片| 欧美狠狠撸| 97人人爽人人爽人人人| 黄网站免费观看| 免费一级欧美片在线观看| 妞干网国产| 人人澡超碰碰| 精品成人在线| 中文字幕日韩精品人妻| 成人香蕉| 韩国免费一级a一片在线播放| 国精产品久拍自产在线网站| 国产777777| 精品无码久久久久久久久app| 热久久最新地址| 国产家庭乱伦| 欧美v日韩| 一区精品| 夜夜夜夜骑| 日韩99在线| 国产午夜成人| 五月天婷婷激情| 日韩中文久久| 黄色成人免费视频| 操久| 中文字幕有码在线| 囯产伦精一区二区三区四区| 日韩久久精品视频| 天天视频黄色| 大香蕉一区二区三区| 91天天综合在线| 色色五月丁香| 99高清无码| 欧美偷拍视频| 大香蕉视频国产| 四川少BBB搡BBB爽爽爽| 亚洲精品无码视频在线观看| 国产在线观看免费视频| 久久天堂影院| 香蕉视频久久| 日本特级片| 日本免费黄色视频| 男女啪啪网站| 精品视频中文字幕| 亚洲无码av在线观看| 亚洲无码黄色| 日本黄色免费网站| 粉嫩99国产精品久久久久久人妻| 草草影院国产第一页| 俄女兵一级婬片A片| 成人性生活A级毛片网站| 操b视频免费| 亚洲爆乳无码一区二区三区| 在线观看污视频| 黄色一级aa片| 国产免费观看视频| 躁BBB躁BBB添BBBBBB| 青草伊人网| 996热re视频精品视频| 国产69页| 欧美一级爱爱| 大香蕉伊人网视频| 先锋影音一区二区| 一区二区三区在线观看视频| 色老师综合| 7799精品视频天天看| 天堂中文字幕| 无套进入无套内谢| 无码导航| 亚洲免费中文字幕| 欧美91熟| 国产成人午夜高潮毛片| 91九色在线观看| 亚洲精品97久久| 三级黄片网站| 免费AV片| 三级网址大全| 自拍偷拍| 日日夜夜精品视频| 国产女人18毛片水18精品软件| 97中文字幕在线| 日韩成人无码视频| 男女啪网站| 久久一区二区三区四区五区| 婷婷久久五月| 成人才看的在线视频| 亚洲www在线观看| 中文字幕av在线观看| 91视频在线免费观看app| 欧美内射网站| 日本在线观看| 日韩无码视频播放| 日韩国产一区二区| 国产欧美精品成人在线观看| 青青草成人AV| 中文字幕日韩人妻在线| 亚洲人妻免费视频| 51AV在线| 一区二区三区四区精品| 91日韩高清| 亚洲国产成人电影| 无码av观看| 国产乱伦免费视频| 日韩精品一区二区三区使用方法| 日本一区二区精品| 欧美丰满美乳XXⅩ高潮www | 亚洲成人精品| 丁香六月久久| 一级片在线免费观看| 色综合五月婷婷| 午夜AV在线观看| 国产码在线成人网站| 大香蕉伊人色| 一级a片在线观看| 91香蕉国产成人App| 色色一区二区| 成人毛片网站| 亚洲欧美另类色图| 午夜福利毛片| 丰满人妻一区二区三区精品高清| 免费看国产黄色视频| 午夜性爽视频男人的天堂| 在线三级片视频| 最新国产av| 日韩av成人| 成人国产精品在线看| 亚洲精品国产精品乱码视99 | 青春草在线观看视频| 欧美成人精品A片免费一区99| 日韩大香蕉视频| 黄片视频在线观看| 亚洲AV成人无码一区二区三区| 成人免费观看视频| 欧美一级特黄A片免费观看| 亚洲成人AV在线播放| 人人色人人干| 九哥操逼视频| 第四色色综合| 午夜福利10000| 69成人精品视频| 国产18毛片18水多精品| 亚洲黄色AV| 日韩在线三级片| 91精品人妻一区二区三区| 无码欧精品亚洲日韩一区| 欧美拍拍视频| 国产精品欧美激情| 国产性爱精品| 吴梦梦一区二区在线观看| 很很干在线视频| aa人人操夜夜操人人| 蜜桃AV无码一区二区三区| 大香蕉在线视频99| 国产三级视频在线| 一本在线| 大香蕉五月丁香| 青青国产视频| av在线三级| 91视频免费网站| 亚洲不卡一区二区三区| 先锋影音资源av| 亚洲Av无码午夜国产精品色软件 | 五月丁香无码| 欧美中文在线观看| 大香蕉福利在线| 亚洲日韩一级片| 5252a我爱haose01我愿| 狠狠操狠狠操狠狠操| 中文一级片| 91福利影院| 久久亚洲av| 国产伊人自拍| ppypp电影频道| 操b在线| 中日韩黄色视频| 天天添天天干| 国产一级黄色大片| 东方av在线观看| 国产三级性爱视频| 韩国成人啪啪无码高潮| 日本免费黄色小视频| 一区二区三区亚洲| 夜色88V精品国产亚洲| 婷婷六月天| 国产ts在线观看| 大香蕉网址| 色色色色综合| 99视频精品| 91人人操人人| 热久久亚洲中文字幕| 国产亚洲久一区二区三区| 中文字幕免费看高清| 久久精品99久久久久久| 天天操天天干麻豆| 亚洲无码一本道| 波多野结衣视频在线观看| 麻豆精品在线| 91久久久久久久久久| 中文字幕1区| 国产91在线一区| 国产一级内射| 性淫影院| 黑人干亚洲人| 免费视频一区二区三区四区| 人妻少妇精品视频一区二区三区| 在线黄| 亚洲无码在线观看网站| 西西人体444大胆高清张悠雨| 极品少妇久久久| 国产xxxxx| 欧美va在线| 午夜亚洲福利视频| 免费看黄片的网站| 午夜资源站| 天天av天天av天天爽| 国产小电影在线观看| 蜜臀久久99精品久久久巴士| 日本中文字幕免费| 五月激情黄色| 超碰人人射| 免费三级怡红院| 99视频网站| 谁有毛片网站| 久久亚洲Aⅴ成人无码国产丝袜 | 人人操人人爱人人拍| 国产福利免费| 熟女3p| 国产免费黄色电影| 欧美成人福利在线观看| 亚洲中文字幕在线观看视频网站| 大香蕉伊人AV| 国产亚洲婷婷| 日本黄色三级片| 91艹逼| 青娱乐偷窥成| 国产精品视频福利| 欧美精品成人网站| 国产日批| 日韩欧美精品18| 午夜成人一区二区| 第一福利视频| 日韩免费AV电影| 色吧综合网| 三级片无码在线观看| 少妇喷水在线观看| 国产成人久久| sm在线| 91福利院| 东京热一区二区| 亚洲欧美成人网站| 3DAV一区二区三区动漫| 伊人大香蕉久久| 人人爽爽| 久久伊人中文字幕| 中文字幕AV播放| 大香蕉在线视频网| 日本成人视频在线免费播放| 亚洲专区中文字幕| 能看的操逼视频| 欧美色图在线观看| 国产凹凸视频| 日韩无码视频播放| 一级黄片免费看| 久操视频在线观看免费| 久久99视频免费观看| 欧美九九九| 中文字幕在线免费看线人| 麻豆911精一区二区| 午夜探花| 男人的天堂色婷婷| 天堂成人av| 在线成人网站| 精品视频第一页| 大鸡巴伊人| 无码不卡视频| 天天操天天操天天| 男人的天堂视频在线| 国产日韩欧美在线| 亚洲欧美日韩一区| 国产激情无码免费| 69久久久久久久久久| 欧美日韩网站| 精品成人影视| 无码人妻精品一区二区50| 一级A片60分钟免费看| www.a片| 牛牛久久| 黄色电影免费在线观看| 欧美肉大捧一进一出小说| A级视频免费观看| 天堂亚洲AV无码精品成人| 中文字幕永久| 亚洲欧美天堂| 久久特黄| 日韩激情网| 国产av不卡| av東熱激情东京热| 日本成人不卡视频| 影音先锋二区| 国产骚女| 无遮挡动态图| 黄网站在线观看| 欧美囗交荫蒂AAAA| 中文字幕亚洲第一| 一级黄色av| 成人AV无码| 亚洲三级黄色| 精品欧美成人片在线| 好吊视频一区二区三区红桃视频you| 亚洲黄片免费看| 一级A色情大片| 黄色人妻| 北条麻妃一区二区三区-免费免费高清观看| 91人人妻人人澡人人爽| 色色激情五月天| 天天综合网久久| 伊人在线观看视频| 欧美成人免费网站| 日韩性生活网| 免费欧美黄片| 少妇在线观看| 日韩乱伦电影| 777超碰| 嫩草国产在线| 91双飞会所双飞在线| 一级片| 久久精品成人导航| 国产成人69| 91国产视频在线播放| 成人性生活免费视频| 婷婷三级片| 在线黄色视频网站| 久久综合久久鬼色| 国产AV大全| 日韩毛片网| 日日操夜夜| 午夜尤物| 欧美性爱天天| AV在线免费播放| 亚洲视频中文字幕在线观看| 黄在观看线| 日韩AV资源网| 欧美洲成人网站| 亚洲黄色大片| 中文无码一区| 亚洲中文字幕2019| 欧美香蕉在线| 国产精品久久久久久亚洲毛片| 91麻豆成人| 日韩激情片| 黄片中文字幕| 中文字幕乱码视频| 熟妇私拍| 九九99久久| 日韩国产中文字幕| 九七人妻| 日本黄色免费在线观看| 精品一区二| 91外围女视频| 日韩在线毛片| av资源免费观看| 欧美二区三区| 亚洲国产成人久久| 五月婷婷性爱| 日本中文字幕在线| 苍井空一区二区| av在线直播| 欧美啊啊啊| 日本黄色电影在线播放| 久久久女女女女999久久| 波多野结衣一区二区| 欧美v在线| 欧美久久精品| 男女操逼视频网站| 99在线观看免费| 羞羞AV| 东方美美高清无码一区| 狠狠撸视频| 日逼电影网| 日本大香蕉伊人| 午夜免费无码| 国产激情网址| 日韩潮喷| 天天操天天干欧美精品| 日本色综合| 人妻无码一区二区三区摄像头| 亚洲高清无码视频在线| 日韩专区在线观看| 能看的操逼视频| www.伊人网| 免费看AV大片| 天天精品| 翔田千里珍藏版无码| 日韩麻豆| 亚洲一区二区三区视频| 午夜天堂在线观看| 黄色三级A片| 97香蕉久久夜色精品国产| 激情一级片| 国产免费黄色视频| 69超碰| 自慰精品| 爆草美女| 国产精品成人在线观看| 国产乱子伦一区二区三区在线观看 | 3344gc在线观看入口| 亚洲无线视频| 青草久久视频| 蜜桃av无码一区三区| 天堂在线v| 亚洲综合成人在线| 午夜探花视频| 日本成人视频在线免费播放| 丝袜无码| 日本大香蕉视频| 美女自慰网站在线观看| 蜜桃久久久亚洲精品| 东方av在线播放| 十八禁网站在线播放| 米奇色色色| 亚洲日韩毛片| 国产A级成人婬片1976| 三洞齐开Av在线免费观看| 亚洲天堂免费视频| 俺来也俺也啪www色| AV无码网站| 国产精品无码成人AV在线播放| 高清无码中文字幕在线观看| 一级A色情大片| 亚洲欧洲日韩综合| 欧美亚洲国产视频| 少婦揉BBBB揉BBBB揉| 国产精品视频导航| 日本免费一二三区| 亚洲vs无码蜜桃少妇| 久久精品视频久久| 逼逼75大秀| 91视频在线观看18| 精品人妻一区二区三区鲁大师| 淫色视频| 大香蕉日韩| 91亚洲视频在线观看| 无码精品一区二区| 国产在线观看AV| 日韩午夜福利| 国产欧美综合在线| 麻豆国产91在线播放| 无码专区在线观看| 国产视频在线播放| 水果派解说av| 成人福利视频在线观看| 免费人成视频在线| 亚洲精品自拍偷拍| 精品免费在线| 亚洲天堂无码av| 99视频+国产日韩欧美| 大香蕉伊人网视频| 色99网站| 精品九九九九九九| 狠狠操一区| 天堂在线视频免费| 中文字幕日韩一| 色色色成人视频| 欧美爆操视频| 国产黄色不卡| 欧美日韩狠狠操在线观看视频| 色情一级A片成人片| 日韩一级无码| 国产又爽又黄A片免费观看| 欧美日本国产| 乱伦五月天| 色男人的天堂| 亚洲有码中文字幕| 欧美色图在线观看| 岛国av在线| 国产在线观看免费视频今夜| 91内射| 国产免费黄色视频| 日韩强操逼网| 国产精品久久AV电影| 韩国日本久久| 午夜国产精品AV| www,操逼| 99久久精品一区二区成人| 丰满人妻一区二区三区Av猛交| 蜜桃高清无码| 98无码人妻精品一区二区三区| 午夜AV免费| 欧美大鸡吧视频| 国产福利免费视频| 一级特黄大片录像i| 国产日日日| 日韩成人无码精品| 中文字幕乱伦视频| 日韩精品在线一区| 欧美小黄片| 大香蕉日| 尹人在线视频| 性爱av天堂| 免费黄色视频网址| 99人人操| 欧美一级aa| 国产一区二| 日本午夜视频| 久久久久久网| 日韩黄色网| 黑人内射人妖| 人妻性爱| 日本无码片| 狠狠干老司机| 黄色av网站在线观看| 日韩欧美三级在线| 亚洲欧美v在线视频| 久操视频免费看| 大香蕉东京热| 国产无码一二三| 岛国无码破解AV在线播放| 日日干天天射| 大香伊人久久| 大鸡巴在线观看| 午夜免费福利| 天天干夜夜操| 亚洲香蕉av| 性欧美XXXX| 亚洲A片视频| 亚洲成人影音先锋| 免费无码毛片一区二区A片| 日本边摸边吻奶边做爰| 亚久久| 在线看国产| 国产乱国产乱300精品| 亚洲精品免费视频| 91国产爽黄在线相亲| 九色视频在线观看| 91麻豆免费看| 免费观看日韩无码视频| 思思热免费视频| 精品久久大香蕉| 大香蕉这里只有精品| 日本A在线观看| 欧美成人手机在线| 91麻豆精品传媒国产| 国产熟女视频| 人人爱人人操| 精品人妻中文字幕视频| 北条麻妃九九九精品视频免费观看| 欧美二区视频| 操B视频免费看| 亚洲性爱在线播放| 亚洲福利网站| 尤物AV| 日韩av在线免费观看| 天天视频色版免费观看视频 | 中文字幕免费观看视频| 欧美性爱手机在线| 婷婷精品在线| 2014天堂网| 在线视频中文字幕| 国产精品色情A级片| 国产极品久久久| 污视频网站免费观看| 亚洲天堂无码AV| 91中文视频| 黄色小视频在线免费观看| 黄色三级在线观看| 99免费视频| 成年人性生活免费视频| 不卡无码中文字幕| 偷拍久久久| 簧片在线免费观看| 国产福利视频导航| 国产精品9| 久久久久久久久久久久久自慰小片| 欧美精产国品一| 成人黃色A片免费看| 91搞鸡| 色综合天天综合| 日韩成人一区| 亚洲高清免费| 蜜桃高清无码| 老熟女搡BBBB搡BBBB视频| www.亚洲视频| 操逼网首页| 无码免费一区二区| 熟女导航| 亚洲日韩网站在线观看| 亚洲色图88| 一本一本久久a久久精品牛牛影视| 国产美女av| 欧美日韩国产一区二区三区| 精品人妻一二三区| 91综合色| 91久久午夜无码鲁丝片久久人妻| 国产乱子伦一区二区三区免看| 天天艹夜夜| 水蜜桃91| 肏屄网站| 99久久综合九九| 色操逼网| 国产精品免费观看久久久久久久久| www.6969成人片亚洲| 日韩欧美中文字幕在线观看| 中文字幕中文字幕一区| 骚BBBB槡BBB槡BBB| 国产精彩无码视频| 18av在线观看| 91精品国产综合久久久蜜臀酒店| 国产非洲欧美在线| 噼里啪啦免费观看视频大全| 欧美一本在线| 色情电影网站| 免费观看无码| 性爱一级视频| 麻豆91蜜桃传媒在线观看| 天天躁日日躁狠狠| 无码视频观看| 无码激情| 成人影片在线观看18| 亚洲精品乱码久久久久久久| 西西人体444rt高清大胆模特| 国产精品无码永久免费不卡 | 国精产品一品二品国精| 成人自拍偷拍| 97无码人妻一区二区三区| 福利导航视频| 亚洲五月天婷婷| 国产传媒自拍| 亚洲无码在线观看免费| 午夜福利老司机| 日韩亚洲天堂| 亚州AV无码| 免费看日韩毛片| 高清无码视频免费版本在线观看| 人人做人人操| 婷婷丁香综合| 欧美韩日高清精彩视频| 亚洲视频A| 亚洲中文字幕免费在线观看| www.yw尤物| 2025最新国产精品每日更新| 无码在线播| www.日批| 九色PORNY自拍视频| 蜜臀AV一区二区三区免费看| 婷婷亚洲国产| 美女大香蕉| 国产黄色片在线观看| 日韩无码精品AV| 免费日韩黄色电影| 蜜桃Av噜噜一区二区三| 一级欧美一级日韩| 午夜AV福利影院| 五月天久久久久| 影音先锋国产资源| 超级碰碰碰碰碰碰碰碰碰| 777米奇视频| 中文字幕欧美视频| 加勒比精品| TokyoKot大交乱无码| 色色激情网| 中国黄色大片| 久久6| 亚洲少妇性爱视频| 亚洲不卡中文字幕| 国产AV三级片| 国产AV日韩AⅤ亚洲AV中文| 日韩欧美小电影| 丁香五月影院| 伊人免费视频| www.毛片| 久久精品99久久久久久| www.骚逼| 黄网站欧美内射| 丁香婷婷激情五月| 黄片AAA| 无码一区二区av| 91干干| 玩弄人妻少妇500系列视频| 欧美日韩逼| 欧美v亚洲| 北条麻妃99| 亚洲欧洲久久电影| 免费看黄色片视频| 91亚洲精品久久久久久久久久久久 | 嫩BBB嗓BBBB榛BBBB| 国产精品美女久久久久久久久 | 天天干天天肏| 日韩精品久久久久久久酒店| 大香蕉在线视频99| 97亚洲国产| 大黄网站在线观看| 国产xxxxx| 97伊人大香蕉| 成人精品无码免费视频| 免费观看黄色视频| 成人精品一区二区无码| 亚洲天堂欧美| 中文字幕免费视频在线播放| 日韩在线二区| 欧洲成人免费视频| 欧美色视频网| 成人AV在线资源| 欧美成人一级A片| 精品国产一区二区三区性色AV| 欧美人成人无码| 日韩AV高清| 性猛交╳XXX乱大交| 97AV视频| 性少妇| 日韩18在线| 群交无码| 国产高清在线| av在线三级| 人人妻人人色| 日本一本视频| 国产视频激情| 伊人大香蕉在线观看| 高清无码视频在线| 深夜福利18| 色婷婷五月天| 亚洲AV成人一区二区三区不卡| 中文字幕麻豆| 一级a片在线| 亚洲第一视频在线观看| av中文在线观看| 97人妻精品黄网站| 国产淫语| 亚洲中文字幕影院| 丁香六月综合| 超碰91在线观看| 黄色小视频在线观看| 亚洲欧美在线观看视频| 日韩三级视频| 看国产AA免费| 99久久久精品久久久久久| 日本爽妇网| 男女日日批黄色三级| 免费黄色片子| 日本A片视频| 微拍福利一区二区| 亚洲乱码中文字幕| 亚洲一区在线免费观看| 亚洲秘AV无码一区二区qq群| 久久国产一区| 久久这里| 豆花视频在线播放| 性满足BBWBBWBBW| 败火老熟女ThePorn视频|