盤點一個Python網(wǎng)絡爬蟲的問題(抓知乎)
回復“資源”即可獲贈Python學習資料
大家好,我是皮皮。
一、前言
前幾天在Python鉆石交流群【此類生物】問了一個Python網(wǎng)絡爬蟲的問題,提問截圖如下:

其實這個就是在抓知乎,知乎上是有反爬的,而且是那種JS加密的,屬于有點難度的了。
二、實現(xiàn)過程
他需要爬這個小說所有章節(jié)名,id號。
這里【甯同學】給了一個代碼,后來發(fā)現(xiàn)是粉絲自己在請求的時候參數(shù)不全,導致沒拿到數(shù)據(jù)。

知乎的請求參數(shù)中確實是有一個參數(shù)是加密的了。

關于知乎抓取,一般我推薦使用八爪魚,另外就是使用補環(huán)境的方法,把加密的JS文件單獨放本地,然后去發(fā)起請求。這個代碼網(wǎng)上倒是挺多的,應該還是可以用的。
三、總結
大家好,我是皮皮。這篇文章主要盤點了一個Python網(wǎng)絡爬蟲的問題,文中針對該問題,給出了具體的解析和代碼實現(xiàn),幫助粉絲順利解決了問題。
最后感謝粉絲【此類生物】提問,感謝【漁滒】、【甯同學】給出的思路和代碼解析,感謝【逸 】、【dcpeng】、【產(chǎn)后修復】、【Engineer】等人參與學習交流。
大家在學習過程中如果有遇到問題,歡迎隨時聯(lián)系我解決(我的微信:pdcfighting),應粉絲要求,我創(chuàng)建了一些高質量的Python付費學習交流群,歡迎大家加入我的Python學習交流群!

有遇到任何問題,歡迎加我好友,我拉你進Python學習交流群共同探討學習。
------------------- End -------------------
往期精彩文章推薦:

歡迎大家點贊,留言,轉發(fā),轉載,感謝大家的相伴與支持
想加入Python學習群請在后臺回復【入群】
萬水千山總是情,點個【在看】行不行
