1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        深度學習預測房價:回歸問題,K折交叉

        共 4510字,需瀏覽 10分鐘

         ·

        2021-11-16 00:26

        機器學習中,大部分是分類問題,另一種常見的機器學習問題是回歸問題,它預測一個連續(xù)值而不是離散的標簽,例如,根據(jù)氣象數(shù)據(jù)預測明天的氣溫,或者根據(jù)軟件說明書預測完成軟件項目所需要的時間、根據(jù)消費行為預測用戶的年齡等,今天的案例就是根據(jù)周邊的數(shù)據(jù),預測房價,房價是一系列的連續(xù)值,因此是一個典型的回歸問題。

        注意:不要將回歸問題與 logistic 回歸算法混為一談。令人困惑的是,logistic 回歸不是回歸算法, 而是分類算法。

        ?

        一、波士頓房價數(shù)據(jù)集

        本節(jié)將要預測 20 世紀 70 年代中期波士頓郊區(qū)房屋價格的中位數(shù),已知當時郊區(qū)的一些數(shù)據(jù)點,比如犯罪率、當?shù)胤慨a(chǎn)稅率等。本節(jié)用到的數(shù)據(jù)集與前面兩個例子有一個有趣的區(qū)別。

        它包含的數(shù)據(jù)點相對較少,只有 506 個,分為 404 個訓練樣本和 102 個測試樣本。輸入數(shù)據(jù)的 每個特征(比如犯罪率)都有不同的取值范圍。例如,有些特性是比例,取值范圍為 0~1;有 的取值范圍為 1~12;還有的取值范圍為 0~100,等等。

        加載波士頓房價數(shù)據(jù)

        from keras.datasets import boston_housing(train_data,train_targets),(test_data,test_targets)?=?boston_housing.load_data()

        我們來看一下數(shù)據(jù)。
        train_data.shape (404, 13) test_data.shape (102, 13)

        如你所見,我們有 404 個訓練樣本和 102 個測試樣本,每個樣本都有 13 個數(shù)值特征,比如人均犯罪率、每個住宅的平均房間數(shù)、高速公路可達性等。目標是房屋價格的中位數(shù),單位是千美元。

        train_targetsarray([15.2, 42.3, 50. , 21.1, 17.7, 18.5, 11.3, 15.6, 15.6, 14.4, 12.1,17.9, 23.1, ......

        房價大都在 10 000~50 000 美元。折合人民幣6.5w-40w一平米,如果你覺得這很便宜,不要忘記當時是 20 世紀70年代中期,而且這些價格沒有根據(jù)通貨膨脹進行調(diào)整。所以一線城市的房價,還大有上漲空間


        二、準備數(shù)據(jù)

        將取值范圍差異很大的數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡中,這是有問題的。網(wǎng)絡可能會自動適應這種取值范圍不同的數(shù)據(jù),但學習肯定變得更加困難。對于這種數(shù)據(jù),普遍采用的最佳實踐是對每個特征做標準化,即對于輸入數(shù)據(jù)的每個特征(輸入數(shù)據(jù)矩陣中的列),減去特征平均值,再除 以標準差,這樣得到的特征平均值為 0,標準差為 1。用 Numpy 可以很容易實現(xiàn)標準化。

        # 數(shù)據(jù)歸一化mean = train_data.mean(axis = 0)train_data -= meanstd = train_data.std(axis = 0)train_data?/=?stdtest_data -= meantest_data /= std

        ?注意:用于測試數(shù)據(jù)標準化的均值和標準差都是在訓練數(shù)據(jù)上計算得到的。在工作流程中,你不能使用在測試數(shù)據(jù)上計算得到的任何結(jié)果,即使是像數(shù)據(jù)標準化這么簡單的事情也不行。

        ?

        三、構(gòu)建模型框架

        由于樣本數(shù)量很少,我們將使用一個非常小的網(wǎng)絡,其中包含兩個隱藏層,每層有 64 個單元。一般來說,訓練數(shù)據(jù)越少,過擬合會越嚴重,而較小的網(wǎng)絡可以降低過擬合。

        #構(gòu)建模型框架from keras import layers from?keras?import?modelsdef build_model():    model = models.Sequential()    model.add(layers.Dense(64,activation='relu',input_shape=(train_data.shape[1],)))    model.add(layers.Dense(64,activation='relu'))    model.add(layers.Dense(1))    model.compile(optimizer='rmsprop',loss='mse',metrics=['mae'])    return model

        網(wǎng)絡的最后一層只有一個單元,沒有激活,是一個線性層。這是標量回歸(標量回歸是預測單一連續(xù)值的回歸)的典型設置。添加激活函數(shù)將會限制輸出范圍。例如,如果向最后一層添加 sigmoid 激活函數(shù),網(wǎng)絡只能學會預測 0~1 范圍內(nèi)的值。這里最后一層是純線性的,所以 網(wǎng)絡可以學會預測任意范圍內(nèi)的值。

        注意,編譯網(wǎng)絡用的是 mse 損失函數(shù),即均方誤差(MSE,mean squared error),預測值與 目標值之差的平方。這是回歸問題常用的損失函數(shù)。

        在訓練過程中還監(jiān)控一個新指標:平均絕對誤差(MAE,mean absolute error)。它是預測值 與目標值之差的絕對值。比如,如果這個問題的 MAE 等于 0.5,就表示你預測的房價與實際價格平均相差 500 美元。


        ?

        四、利用K 折驗證來驗證你的方法

        為了在調(diào)節(jié)網(wǎng)絡參數(shù)(比如訓練的輪數(shù))的同時對網(wǎng)絡進行評估,你可以將數(shù)據(jù)劃分為訓練集和驗證集,正如前面例子中所做的那樣。但由于數(shù)據(jù)點很少,驗證集會非常小(比如大約100 個樣本)。因此,驗證分數(shù)可能會有很大波動,這取決于你所選擇的驗證集和訓練集。也就是說,驗證集的劃分方式可能會造成驗證分數(shù)上有很大的方差,這樣就無法對模型進行可靠的評估。

        在這種情況下,最佳做法是使用 K 折交叉驗證(見圖 3-11)。這種方法將可用數(shù)據(jù)劃分為 K個分區(qū)(K 通常取 4 或 5),實例化 K 個相同的模型,將每個模型在 K-1 個分區(qū)上訓練,并在剩下的一個分區(qū)上進行評估。模型的驗證分數(shù)等于 K 個驗證分數(shù)的平均值。這種方法的代碼實現(xiàn)很簡單。

        ?

        import keras import numpy as np #K折交叉驗證k   = 5num = len(train_data)//kall_score = []for i in range(k):    X_val = train_data[i*num:(i+1)*num]    Y_val = train_targets[i*num:(i+1)*num]    X_train = np.concatenate([train_data[:i*num],train_data[(i+1)*num:]],axis=0)    Y_train = np.concatenate([train_targets[:i*num],train_targets[(i+1)*num:]],axis=0)    model = build_model()    model.fit(X_train,Y_train,epochs=100,batch_size=1,verbose=1)    val_mse,val_mae = model.evaluate(X_val,Y_val,verbose=0)    all_score.append(val_mae)

        ?

        運行結(jié)果如下,取平均,基本上就是模型能到達的最小誤差了

        all_score[1.9652233123779297,2.5989739894866943,1.9110896587371826,2.5641400814056396, 2.337777853012085]
        np.mean(all_score) 2.275440979003906

        每次運行模型得到的驗證分數(shù)有很大差異,從 1.9 到 2.6 不等。平均分數(shù)(2.27)是比單一分數(shù)更可靠的指標——這就是 K 折交叉驗證的關鍵。在這個例子中,預測的房價與實際價格平均相差 2200 美元,考慮到實際價格范圍在 10 000~50 000 美元,這一差別還是很大的。我們讓訓練時間更長一點,達到 500 個輪次。為了記錄模型在每輪的表現(xiàn),我們需要修改訓練循環(huán),以保存每輪的驗證分數(shù)記錄。


        ?

        五、模型最后評估

        完成模型調(diào)參之后(除了輪數(shù),還可以調(diào)節(jié)隱藏層大?。憧梢允褂米罴褏?shù)在所有訓練數(shù)據(jù)上訓練最終的生產(chǎn)模型,然后觀察模型在測試集上的性能。

        model = build_model()model.fit(train_data,train_targets,epochs=100,batch_size=1,verbose=1)test_mse,test_mae = model.evaluate(test_data,test_targets,verbose=0)
        test_mae2.213838815689087
        #如果要看預測的明細結(jié)果model.predict(test_data)array([[18.471083], [20.257647], [33.627922], [23.181114], [23.600664], [29.277847], [21.298449], [17.50559 ], [21.228243]], dtype=float32)

        從上述結(jié)果來看,交叉驗證的結(jié)果與最后的預測結(jié)果相差不大,因此要得到更準的線上精度,最好選擇交叉驗證,而不是一次性的分割驗證。


        ···? END? ···


        一、Number(數(shù)字)
        全面掌握Python基礎,這一篇就夠了,建議收藏
        Python基礎之數(shù)字(Number)超級詳解
        Python隨機模塊22個函數(shù)詳解
        Python數(shù)學math模塊55個函數(shù)詳解
        二、String(字符串)
        Python字符串的45個方法詳解
        Pandas向量化字符串操作
        三、List(列表)
        超級詳解系列-Python列表全面解析
        Python輕量級循環(huán)-列表推導式
        四、Tuple(元組)
        Python的元組,沒想象的那么簡單
        五、Set(集合)
        全面理解Python集合,17個方法全解,看完就夠了
        六、Dictionary(字典)
        Python字典詳解-超級完整版
        七、內(nèi)置函數(shù)
        Python初學者必須吃透這69個內(nèi)置函數(shù)!
        八、正則模塊
        Python正則表達式入門到入魔
        筆記 | 史上最全的正則表達式
        八、系統(tǒng)操作
        Python之shutil模塊11個常用函數(shù)詳解
        Python之OS模塊39個常用函數(shù)詳解
        九、進階模塊
        【萬字長文詳解】Python庫collections,讓你擊敗99%的Pythoner
        高手如何在Python中使用collections模塊
        【萬字長文】詳解Python時間處理模塊-datetime
        掃描關注本號↓
        瀏覽 49
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            亚洲高清无码成人 | 欧美成人影院一区二区 | 四房五月婷婷 | 出轨的女人高潮叫床视频网站 | 特级黄色片免费看 | 日日夜夜精| 秋霞午夜鲁丝一区二区老狼 | 久热草 | 人妖videosex高潮另类 | 欧美成人18禁 |