1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        使用深度學習進行瘧疾檢測 | PyTorch版

        共 11492字,需瀏覽 23分鐘

         ·

        2020-11-08 10:32



        點擊上方小白學視覺”,選擇加"星標"或“置頂

        重磅干貨,第一時間送達

        蚊子看起來很小,很脆弱,但是是非常危險的。眾所周知,瘧疾對所有年齡段的人來說都是一種威脅生命的疾病,它通過蚊子傳播。更重要的是,在最初的階段,這些癥狀很容易被誤認為是發(fā)燒、流感或普通感冒。但是,在晚期,它可以通過感染和破壞細胞結構造成嚴重破壞,這可能危及生命。如果不及時治療,甚至可能導致死亡。


        雖然大多數研究人員認為這種疾病起源于非洲大陸,但這種疾病的起源仍有爭議。南美洲國家、非洲國家和印度次大陸由于瘧疾而面臨很高的感染風險,這主要是由于它們的熱帶氣候是受感染雌蚊的催化劑和繁殖場所,而受感染的雌蚊攜帶造成這種疾病的瘧原蟲寄生蟲。


        我們這個項目的目標是開發(fā)一個系統(tǒng),可以檢測這種致命的疾病,而不必完全依靠醫(yī)學測試。


        所以,在進入主要部分之前,讓我們先完成一些相關工作。


        這個數據集最初來自于美國國立衛(wèi)生研究院的網站并上傳到 Kaggle。數據集包含27558張細胞圖像。其中,我們有13779張被瘧疾感染的細胞圖像和另外13779張未感染的圖像。我們正在試圖解決一個分類問題。使用的框架是 Pytorch。數據集下載地址為:https://www.kaggle.com/iarunava/cell-images-for-detecting-malaria


        現在,讓我們開始創(chuàng)建我們的瘧疾檢測模型。


        導入相關庫


        現在讓我們來做一些數據探索:


        1. 首先,我們將輸入數據并對其進行圖像相關處理

          import osimport torchimport pandas as pdimport numpy as npfrom torch.utils.data import Dataset, random_split, DataLoaderfrom PIL import Imageimport torchvision.models as modelsimport matplotlib.pyplot as pltimport torchvision.transforms as transformsfrom sklearn.metrics import f1_scoreimport torch.nn.functional as Fimport torch.nn as nnfrom torchvision.utils import make_grid%matplotlib inline

        a) 數據集包含不規(guī)則形狀的圖像。這將阻礙模特訓練。因此,我們將圖像調整為128 x 128的形狀。


        b) 我們還將把數據轉換為張量,因為它是使用深度學習訓練模型的有用格式。


        PyTorch 的美妙之處在于,它允許我們通過使用非常少的代碼行來進行圖像的各種操作。

        from torchvision.datasets import ImageFolderfrom torchvision.transforms import ToTensorfrom torchvision.transforms import Composefrom torchvision.transforms import Resizefrom torchvision.transforms import ToPILImage
        dataset = ImageFolder(data_dir, transform=Compose([Resize((128, 128), interpolation=3),ToTensor()]))
        classes = dataset.classesprint(classes)len(dataset)

        ['Parasitized', 'Uninfected']

        27558

        現在,我們將編寫一個輔助函數來可視化一些圖像。

        import matplotlib.pyplot as plt
        def show_example(img, label): print('Label: ', dataset.classes[label], "("+str(label)+")") plt.imshow(img.permute(1, 2, 0))

        讓我們看一組這兩個類的圖像。

        show_example(*dataset[2222])

        show_example(*dataset[22269])

        為了獲得可重復的結果,我們需要通過設置seed。

        random_seed = 42torch.manual_seed(random_seed);

        現在,讓我們將整個圖像集劃分為訓練集、驗證集和測試集。顯然,訓練集是用于訓練模型的,而驗證集是用于確保訓練朝著正確的方向進行。測試集是用來測試模型最后的性能。

        val_size = 6000train_size = 16000test_size = len(dataset) - val_size - train_size
        train_ds, val_ds, test_ds = random_split(dataset, [train_size, val_size, test_size])len(train_ds), len(val_ds), len(test_ds)

        (16000, 6000, 5558)

        我們將嘗試通過使用批量圖像來訓練我們的模型。在這里,PyTorch 的 DataLoader 為我們提供了便利。它提供了對給定數據集的迭代。

        from?torch.utils.data.dataloader?import?DataLoaderbatch_size=128

        們將使用 DataLoader 創(chuàng)建用于訓練和驗證的批處理。我們需要確保在訓練期間內部調整批次。這只是為了在模型中引入一些隨機性。我們沒有用于驗證集的內部 shuffle,因為我們只是使用它來驗證每個epoch的模型性能。

        train_dl = DataLoader(train_ds, batch_size, shuffle=True, num_workers=4, pin_memory=True)val_dl = DataLoader(val_ds, batch_size*2, num_workers=4, pin_memory=True)

        現在讓我們嘗試可視化一批圖像。

        from torchvision.utils import make_grid
        def show_batch(dl): for images, labels in dl: fig, ax = plt.subplots(figsize=(12, 6)) ax.set_xticks([]); ax.set_yticks([]) ax.imshow(make_grid(images, nrow=16).permute(1, 2, 0)) break

        因為我們的數據是圖像,所以我們要訓練一個卷積神經網絡。如果你害怕聽這些,那么你并不孤單。當我第一次聽到 CNN 時,我也非常害怕。但是,坦白地說,由于 Tensorflow 和 PyTorch 這樣的深度學習框架,它們的理解非常簡單,實現起來也非常簡單。


        細胞神經網絡的使用卷積運算在初始層提取特征。最后的圖層是普通的線性圖層。

        我們將為包含各種功能函數的模型定義一個 Base 類。如果我們將來試圖解決類似的問題,這些方法可能會有所幫助。

        def accuracy(outputs, labels):    _, preds = torch.max(outputs, dim=1)    return torch.tensor(torch.sum(preds == labels).item() / len(preds))
        class ImageClassificationBase(nn.Module): def training_step(self, batch): images, labels = batch out = self(images) # Generate predictions loss = F.cross_entropy(out, labels) # Calculate loss return loss def validation_step(self, batch): images, labels = batch out = self(images) # Generate predictions loss = F.cross_entropy(out, labels) # Calculate loss acc = accuracy(out, labels) # Calculate accuracy return {'val_loss': loss.detach(), 'val_acc': acc} def validation_epoch_end(self, outputs): batch_losses = [x['val_loss'] for x in outputs] epoch_loss = torch.stack(batch_losses).mean() # Combine losses batch_accs = [x['val_acc'] for x in outputs] epoch_acc = torch.stack(batch_accs).mean() # Combine accuracies return {'val_loss': epoch_loss.item(), 'val_acc': epoch_acc.item()} def epoch_end(self, epoch, result): print("Epoch [{}], train_loss: {:.4f}, val_loss: {:.4f}, val_acc: {:.4f}".format( epoch, result['train_loss'], result['val_loss'], result['val_acc']))

        現在讓我們定義一個繼承 ImageClassificationBase 類的 Malaria2CnnModel 類:

        class Malaria2CnnModel(ImageClassificationBase):    def __init__(self):        super().__init__()        self.network = nn.Sequential(            nn.Conv2d(3, 32, kernel_size=3, padding=1),            nn.ReLU(),            nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1),            nn.ReLU(),            nn.MaxPool2d(2, 2), # output: 64 x 64 x 64
        nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.Conv2d(128, 128, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(2, 2), # output: 128 x 32 x 32
        nn.Conv2d(128, 256, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.Conv2d(256, 256, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(2, 2), # output: 256 x 16 x 16
        nn.Flatten(), nn.Linear(256*16*16, 1024), nn.ReLU(), nn.Linear(1024, 512), nn.ReLU(), nn.Linear(512, 2)) def forward(self, xb): return self.network(xb)
        model = Malaria2CnnModel()model
        Malaria2CnnModel(
        (network): Sequential(
        (0): Conv2d(3, 32, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (1): ReLU()
        (2): Conv2d(32, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (3): ReLU()
        (4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
        (5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (6): ReLU()
        (7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (8): ReLU()
        (9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
        (10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (11): ReLU()
        (12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
        (13): ReLU()
        (14): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
        (15): Flatten()
        (16): Linear(in_features=65536, out_features=1024, bias=True)
        (17): ReLU()
        (18): Linear(in_features=1024, out_features=512, bias=True)
        (19): ReLU()
        (20): Linear(in_features=512, out_features=2, bias=True)
        )
        )

        如果我們使用 CPU,訓練一個深度學習模型是非常耗時耗力的。有很多像 Kaggle 和 google 的 Colab 這樣的平臺提供免費的 GPU 計算來訓練模型。下面的幫助函數可以幫助我們找到是否有任何 GPU 可用于我們的系統(tǒng)。如果是的話,我們可以把我們的數據和模型轉移到 GPU 中,以便更快的計算。

        def get_default_device():    """Pick GPU if available, else CPU"""    if torch.cuda.is_available():        return torch.device('cuda')    else:        return torch.device('cpu')    def to_device(data, device):    """Move tensor(s) to chosen device"""    if isinstance(data, (list,tuple)):        return [to_device(x, device) for x in data]    return data.to(device, non_blocking=True)
        class DeviceDataLoader(): """Wrap a dataloader to move data to a device""" def __init__(self, dl, device): self.dl = dl self.device = device def __iter__(self): """Yield a batch of data after moving it to device""" for b in self.dl: yield to_device(b, self.device)
        def __len__(self): """Number of batches""" return len(self.dl)
        device = get_default_device()device
        device(type='cuda')

        我們已經定義了一個 DeviceDataLoader 類來傳輸我們的模型、訓練和驗證數據。

        train_dl = DeviceDataLoader(train_dl, device)val_dl = DeviceDataLoader(val_dl, device)to_device(model, device);

        現在,我們將定義我們的fit()函數和evaluate()函數。fit()用于訓練模型,evaluate()用于查看每個epoch結束時的模型性能。一個epoch可以理解為整個訓練過程中的一個步驟。

        @torch.no_grad()def evaluate(model, val_loader):    model.eval()    outputs = [model.validation_step(batch) for batch in val_loader]    return model.validation_epoch_end(outputs)
        def fit(epochs, lr, model, train_loader, val_loader, opt_func=torch.optim.SGD): history = [] optimizer = opt_func(model.parameters(), lr) for epoch in range(epochs): # Training Phase model.train() train_losses = [] for batch in train_loader: loss = model.training_step(batch) train_losses.append(loss) loss.backward() optimizer.step() optimizer.zero_grad() # Validation phase result = evaluate(model, val_loader) result['train_loss'] = torch.stack(train_losses).mean().item() model.epoch_end(epoch, result) history.append(result) return history

        讓我們把我們的模型轉移到一個 GPU 設備上。

        model = to_device(Malaria2CnnModel(), device)

        我們將對模型進行評估,以便在訓練之前了解它在驗證集上的執(zhí)行情況。

        evaluate(model, val_dl)


        {'val_loss': 0.6931465864181519, 'val_acc': 0.5000697374343872}

        在訓練之前,我們可以達到50% 的準確率。對于醫(yī)療保健領域的關鍵應用來說,這個數字非常低。我們將設置 epochs 的數目為10,設置優(yōu)化器為torch.optim.Adam,以及學習率設定為0.001。

        num_epochs = 10opt_func = torch.optim.Adamlr = 0.001

        我們將要定義一些功能,在每個epoch結束時計算損失和準確度。

        def plot_accuracies(history):    accuracies = [x['val_acc'] for x in history]    plt.plot(accuracies, '-x')    plt.xlabel('epoch')    plt.ylabel('accuracy')    plt.title('Accuracy vs. No. of epochs');
        def plot_losses(history):    train_losses = [x.get('train_loss') for x in history]    val_losses = [x['val_loss'] for x in history]    plt.plot(train_losses, '-bx')    plt.plot(val_losses, '-rx')    plt.xlabel('epoch')    plt.ylabel('loss')    plt.legend(['Training', 'Validation'])    plt.title('Loss vs. No. of epochs');

        現在,讓我們使用fit()函數來訓練我們的模型。

        history = fit(num_epochs, lr, model, train_dl, val_dl, opt_func)

        Epoch [0], train_loss: 0.6955, val_loss: 0.6876, val_acc: 0.5228 Epoch [1], train_loss: 0.5154, val_loss: 0.2328, val_acc: 0.9327 Epoch [2], train_loss: 0.1829, val_loss: 0.1574, val_acc: 0.9540 Epoch [3], train_loss: 0.1488, val_loss: 0.1530, val_acc: 0.9552 Epoch [4], train_loss: 0.1330, val_loss: 0.1388, val_acc: 0.9562 Epoch [5], train_loss: 0.1227, val_loss: 0.1372, val_acc: 0.9576 Epoch [6], train_loss: 0.1151, val_loss: 0.1425, val_acc: 0.9591 Epoch [7], train_loss: 0.1043, val_loss: 0.1355, val_acc: 0.9586 Epoch [8], train_loss: 0.0968, val_loss: 0.1488, val_acc: 0.9579 Epoch [9], train_loss: 0.0949, val_loss: 0.1570, val_acc: 0.9554

        訓練結束后,我們的模型從之前的50% 的準確率提高到了95.54%。


        讓我們繪制每個epoch后的精確度和損失圖表以幫助我們理解我們的模型。

        plot_accuracies(history)

        plot_losses(history)

        現在我們將編寫一個函數來預測單個圖像的類別。然后我們將對整個測試集進行預測,并檢查整個測試集的準確性。

        def predict_image(img, model):    # Convert to a batch of 1    xb = to_device(img.unsqueeze(0), device)    # Get predictions from model    yb = model(xb)    # Pick index with highest probability    _, preds  = torch.max(yb, dim=1)    # Retrieve the class label    return dataset.classes[preds[0].item()]

        對一張圖片進行預測:

        img, label = test_ds[0]plt.imshow(img.permute(1, 2, 0))print('Label:', dataset.classes[label], ', Predicted:', predict_image(img, model))

        現在讓我們來預測一下整個測試集:

        test_loader = DeviceDataLoader(DataLoader(test_ds, batch_size*2), device)result = evaluate(model, test_loader)result


        {'val_loss': 0.14322155714035034, 'val_acc': 0.9600048065185547}

        我們在這里得到了一些相當不錯的結果。96% 是一個非常好的結果,但是我認為這仍然可以通過改變超參數來改進。我們也可以設置更多的epoch。


        擴展想法:

        1. 我們將嘗試應用遷移學習技巧,看看它是否能進一步提高準確性;

        2. 我們將嘗試使用圖像分割分析技術和圖像定位技術將這些紅色球狀結構聚集在一起,并對其進行分析以尋找證據;

        3. 我們將嘗試使用數據增強技術來限制我們的模型過擬合;

        4. 我們將學習如何在生產環(huán)境中部署模型,以便向不理解代碼的人展示我們的工作。

        ·? END? ·


        瀏覽 56
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            毛片乱伦| 青青青草视频在线观看 | 欧美视频专线一二三区 | 无码偷拍视频 | 韩国gayxxxxgay2 | 免费污污视频在线观看 | 久久538| 黄色工厂-这里只有精品 | 久久综合网天天综合网 | 嫩草精品 |