1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        Scrapy 爬蟲框架 10 分鐘快速入門

        共 13201字,需瀏覽 27分鐘

         ·

        2021-04-20 02:19

        △點擊上方“Python貓”關(guān)注 ,回復“1”領(lǐng)取電子書

        作者:wedo實驗君

        來源:Python中文社區(qū)

        1. scrapy簡介

        scrapy是基于事件驅(qū)動的Twisted框架下用純python寫的爬蟲框架。很早之前就開始用scrapy來爬取網(wǎng)絡上的圖片和文本信息,一直沒有把細節(jié)記錄下來。這段時間,因為工作需要又重拾scrapy爬蟲,本文和大家分享下,包你一用就會, 歡迎交流。

        1.1 scrapy框架

        scrapy框架包括5個主要的組件和2個中間件Hook。

        • ENGIINE:整個框架的控制中心, 控制整個爬蟲的流程。根據(jù)不同的條件添加不同的事件(就是用的Twisted)
        • SCHEDULER:事件調(diào)度器
        • DOWNLOADER:接收爬蟲請求,從網(wǎng)上下載數(shù)據(jù)
        • SPIDERS:發(fā)起爬蟲請求,并解析DOWNLOADER返回的網(wǎng)頁內(nèi)容,同時和數(shù)據(jù)持久化進行交互,需要開發(fā)者編寫
        • ITEM PIPELINES:接收SPIDERS解析的結(jié)構(gòu)化的字段,進行持久化等操作,需要開發(fā)者編寫
        • MIDDLEWARES:ENGIINESPIDERS, ENGIINEDOWNLOADER之間一些額外的操作,hook的方式提供給開發(fā)者

        從上可知,我們只要實現(xiàn)SPIDERS(要爬什么網(wǎng)站,怎么解析)和ITEM PIPELINES(如何處理解析后的內(nèi)容)就可以了。其他的都是有框架幫你完成了。(圖片來自網(wǎng)絡,如果侵權(quán)聯(lián)系必刪)

        1.2 scrapy數(shù)據(jù)流

        我們再詳細看下組件之間的數(shù)據(jù)流,會更清楚框架的內(nèi)部運作。(圖片來自網(wǎng)絡,如果侵權(quán)聯(lián)系必刪)


          1. SPIDERS發(fā)爬蟲請求給ENGIINE, 告訴它任務來了

          2. ENGIINE將請求添加到SCHEDULER調(diào)度隊列里, 說任務就交給你了,給我安排好

          3. SCHEDULER看看手里的爬取請求很多,挑一個給ENGIINE, 說大哥幫忙轉(zhuǎn)發(fā)給下載DOWNLOADER

          4. ENGIINE:好的, DOWNLOADER你的任務來了

          5. DOWNLOADER:開始下載了,下載好了,任務結(jié)果 交給ENGIINE

          6. ENGIINE將結(jié)果給SPIDERS, 你的一個請求下載好了,快去解析吧

          7. SPIDERS:好的,解析產(chǎn)生了結(jié)果字段。又給SPIDERS轉(zhuǎn)發(fā)給ITEM PIPELINES

          8. ITEM PIPELINES: 接收到字段內(nèi)容,保存起來。

        第1步到第8步,一個請求終于完成了。是不是覺得很多余?ENGIINE夾在中間當傳話筒,能不能直接跳過?可以考慮跳過了會怎么樣。

        這里分析一下

        • SCHEDULER的作用:任務調(diào)度, 控制任務的并發(fā),防止機器處理不過來
        • ENGIINE:就是基于Twisted框架, 當事件來(比如轉(zhuǎn)發(fā)請求)的時候,通過回調(diào)的方式來執(zhí)行對應的事件。我覺得ENGIINE讓所有操作變的統(tǒng)一,都是按照事件的方式來組織其他組件, 其他組件以低耦合的方式運作;對于一種框架來說,無疑是必備的。

        2. 基礎(chǔ):XPath

        寫爬蟲最重要的是解析網(wǎng)頁的內(nèi)容,這個部分就介紹下通過XPath來解析網(wǎng)頁,提取內(nèi)容。

        2.1 HTML節(jié)點和屬性

        (圖片來自網(wǎng)絡,如果侵權(quán)聯(lián)系必刪)

        2.2 解析語法

        • a / b:‘/’在 xpath里表示層級關(guān)系,左邊的 a是父節(jié)點,右邊的 b是子節(jié)點
        • a // b:表示a下所有b,直接或者間接的
        • [@]:選擇具有某個屬性的節(jié)點
          • //div[@classs], //a[@x]:選擇具有 class屬性的 div節(jié)點、選擇具有 x屬性的 a節(jié)點
          • //div[@class="container"]:選擇具有 class屬性的值為 container的 div節(jié)點
        • //a[contains(@id, "abc")]:選擇 id屬性里有 abc的 a標簽

        一個例子

        response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').get_all()
        # 獲取所有class屬性(css)為taglist的div, 下一個層ul下的所有l(wèi)i下所有a下所有img標簽下data-original屬性

        # data-original這里放的是圖片的url地址

        更多詳見

        http://zvon.org/comp/r/tut-XPath_1.html#Pages~List_of_XPaths

        3. 安裝部署

        Scrapy 是用純python編寫的,它依賴于幾個關(guān)鍵的python包(以及其他包):

        • lxml 一個高效的XML和HTML解析器
        • parsel ,一個寫在lxml上面的html/xml數(shù)據(jù)提取庫,
        • w3lib ,用于處理URL和網(wǎng)頁編碼的多用途幫助程序
        • twisted 異步網(wǎng)絡框架
        • cryptography 和 pyOpenSSL ,處理各種網(wǎng)絡級安全需求
        # 安裝
        pip install scrapy

        4. 創(chuàng)建爬蟲項目

        scrapy startproject sexy

        #
         創(chuàng)建一個后的項目目錄
        # sexy
        # │  scrapy.cfg
        # │
        # └─sexy
        #     │  items.py
        #     │  middlewares.py
        #     │  pipelines.py
        #     │  settings.py
        #     │  __init__.py
        #     │
        #     ├─spiders
        #     │  │  __init__.py
        #     │  │
        #     │  └─__pycache__
        #     └─__pycache__

        #
         執(zhí)行 需要到scrapy.cfg同級別的目錄執(zhí)行
        scrapy crawl sexy

        從上可知,我們要寫的是spiders里的具體的spider類和items.py和pipelines.py(對應的ITEM PIPELINES

        5. 開始scrapy爬蟲

        5.1 簡單而強大的spider

        這里實現(xiàn)的功能是從圖片網(wǎng)站中下載圖片,保存在本地, url做了脫敏。需要注意的點在注釋要標明

        • 類要繼承 scrapy.Spider
        • 取一個唯一的name
        • 爬取的網(wǎng)站url加到start_urls列表里
        • 重寫parse利用xpath解析reponse的內(nèi)容

        可以看到parse實現(xiàn)的時候沒有轉(zhuǎn)發(fā)給ITEM PIPELINES,直接處理了。這樣簡單的可以這么處理,如果業(yè)務很復雜,建議交給ITEM PIPELINES。后面會給例子

        # 目錄結(jié)果為:spiders/sexy_spider.py
        import scrapy
        import os
        import requests
        import time


        def download_from_url(url):
            response = requests.get(url, stream=True)
            if response.status_code == requests.codes.ok:
                return response.content
            else:
                print('%s-%s' % (url, response.status_code))
                return None


        class SexySpider(scrapy.Spider):
           # 如果有多個spider, name要唯一
            name = 'sexy'
            allowed_domains = ['uumdfdfnt.94demo.com']
            allowed_urls = ['http://uumdfdfnt.94demo.com/']

            # 需要爬取的網(wǎng)站url加到start_urls list里
            start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']
            save_path = '/home/sexy/dingziku'

            def parse(self, response):
                # 解析網(wǎng)站,獲取圖片列表
                img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()
                time.sleep(1)

                # 處理圖片, 具體業(yè)務操作, 可交給items, 見5.2 items例子
                for img_url in img_list:
                    file_name = img_url.split('/')[-1]
                    content = download_from_url(img_url)
                    if content is not None:
                        with open(os.path.join(self.save_path, file_name), 'wb'as fw:
                            fw.write(content)

                # 自動下一頁(見5.3 自動下一頁)
                next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一頁"]/@href').get()
                if next_page is not None:
                    next_page = response.urljoin(next_page)
                    yield scrapy.Request(next_page, callback=self.parse)

        5.2 items和pipline例子

        這里說明下兩個的作用

        • items:提供一個字段存儲, spider會將數(shù)據(jù)存在這里
        • pipline:會從items取數(shù)據(jù),進行業(yè)務操作,比如5.1中的保存圖片;又比如存儲到數(shù)據(jù)庫中等

        我們來改寫下上面的例子

        • items.py其實就是定義字段scrapy.Field()
        import scrapy
        class SexyItem(scrapy.Item):
            # define the fields for your item here like:
            # name = scrapy.Field()
            img_url = scrapy.Field()
        • spiders/sexy_spider.py
        import scrapy
        import os
        # 導入item
        from ..items import SexyItem

        class SexySpider(scrapy.Spider):
           # 如果有多個spider, name要唯一
            name = 'sexy'
            allowed_domains = ['uumdfdfnt.94demo.com']
            allowed_urls = ['http://uumdfdfnt.94demo.com/']

            # 需要爬取的網(wǎng)站url加到start_urls list里
            start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']
            save_path = '/home/sexy/dingziku'

            def parse(self, response):
                # 解析網(wǎng)站,獲取圖片列表
                img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()
                time.sleep(1)

                # 處理圖片, 具體業(yè)務操作, 可交給yield items
                for img_url in img_list:
                    items = SexyItem()
                    items['img_url'] = img_url
                    yield items
        • pipelines.py
        import os
        import requests


        def download_from_url(url):
            response = requests.get(url, stream=True)
            if response.status_code == requests.codes.ok:
                return response.content
            else:
                print('%s-%s' % (url, response.status_code))
                return None


        class SexyPipeline(object):

            def __init__(self):
                self.save_path = '/tmp'

            def process_item(self, item, spider):
                if spider.name == 'sexy':
                    # 取出item里內(nèi)容
                    img_url = item['img_url']
                    
                    # 業(yè)務處理
                    file_name = img_url.split('/')[-1]
                    content = download_from_url(img_url)
                    if content is not None:
                        with open(os.path.join(self.save_path, file_name), 'wb'as fw:
                            fw.write(content)
                return item
        • 重要的配置要開啟settings.py中開啟piplines類,數(shù)值表示優(yōu)先級
        ITEM_PIPELINES = {
           'sexy.pipelines.SexyPipeline'300,
        }

        5.3 自動下一頁

        有時候我們不僅要爬取請求頁面中的內(nèi)容,還要遞歸式的爬取里面的超鏈接url,特別是下一頁這種,解析內(nèi)容和當前頁面相同的情況下。一種笨方法是手動加到start_urls里。大家都是聰明人來試試這個。

        • 先在頁面解析下下一頁的url
        • scrapy.Request(next_page, callback=self.parse) 發(fā)起一個請求,并調(diào)用parse來解析,當然你可以用其他的解析

        完美了,完整例子見5.1

        next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一頁"]/@href').get()
        if next_page is not None:
           next_page = response.urljoin(next_page)
           yield scrapy.Request(next_page, callback=self.parse)

        5.4 中間件

        • 下載中間件 中間件的作用是提供一些常用的鉤子Hook來增加額外的操作。中間件的操作是在middlewares.py??梢钥吹街饕翘幚碚埱?code style="">process_request,響應process_response和異常process_exception三個鉤子函數(shù)。
        • 處理請求process_request: 傳給DOWNLOADER之前做的操作
        • 響應process_responseDOWNLOADERENGIINE響應之前的操作

        這里舉一個添加模擬瀏覽器請求的方式,防止爬蟲被封鎖。重寫process_request

        from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware
        import random
        agents = ['Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;',
                      'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv,2.0.1) Gecko/20100101 Firefox/4.0.1',
                      'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
                      'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',
                      'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)']

        class RandomUserAgent(UserAgentMiddleware):
            def process_request(self, request, spider):
                ua = random.choice(agents)
                request.headers.setdefault('User-agent',ua,)

        統(tǒng)一要在settings.py中開啟下載中間件,數(shù)值表示優(yōu)先級

        DOWNLOADER_MIDDLEWARES = {
            'sexy.middlewares.customUserAgent.RandomUserAgent'20,
        }

        5.5 可用配置settings.py

        除了上面提供的pipline配置開啟和中間件配置外,下面介紹幾個常用的配置

        • 爬蟲機器人規(guī)則:ROBOTSTXT_OBEY = False, 如果要爬取的網(wǎng)站有設(shè)置robots.txt,最好設(shè)置為False
        • CONCURRENT_REQUESTS:并發(fā)請求
        • DOWNLOAD_DELAY:下載延遲,可以適當配置,避免把網(wǎng)站也爬掛了。

        所有的配置詳見 https://doc.scrapy.org/en/latest/topics/settings.html

        6. 總結(jié)

        相信從上面的介紹,你已經(jīng)可以動手寫一個你自己的爬蟲了。我也完成了做筆記的任務了。scrapy還提供更加詳細的細節(jié),可參見https://docs.scrapy.org/en/latest/

        最后總結(jié)如下:

        • scrapy是基于事件驅(qū)動Twisted框架的爬蟲框架。ENGIINE是核心,負責串起其他組件
        • 開發(fā)只要編寫spider和item pipline和中間件, download和schedule交給框架
        • scrapy crawl 你的爬蟲name,name要唯一
        • 爬取的url放在start_urls, spider會自動Request的,parse來解析
        • pipline和中間件要記得在settings中開啟
        • 關(guān)注下settings的常用配置,需要時看下文檔


        作者簡介:wedo實驗君, 數(shù)據(jù)分析師;熱愛生活,熱愛寫作

        Python貓技術(shù)交流群開放啦!群里既有國內(nèi)一二線大廠在職員工,也有國內(nèi)外高校在讀學生,既有十多年碼齡的編程老鳥,也有中小學剛剛?cè)腴T的新人,學習氛圍良好!想入群的同學,請在公號內(nèi)回復『交流群』,獲取貓哥的微信(謝絕廣告黨,非誠勿擾?。?/span>~


        還不過癮?試試它們




        Python之父:為什么要使用操作符?

        一文學會爬蟲技巧

        為什么不要輕易使用 Chrome 復制的 XPath?

        Python 項目提速技巧:連接復用

        Python 什么情況下會生成 pyc 文件?

        深入理解Python的TLS機制和Threading.local()


        如果你覺得本文有幫助
        請慷慨分享點贊,感謝啦!
        瀏覽 66
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            色狼五月| 波多野结衣一区二区三区国产精品 | 美女小嫩逼 | 成人黄色大片 | 国产国产精品人在线视 | 免费一级婬A片AAA毛片古女 | 亚洲碰在线 | 国产精品毛片视频 | 和上司一夜做了4次爱电影 | 久久这里面只有精品视频 |