看板 [ Python ]
討論串[問題] Scrapy 蜘蛛程式無法爬超過3個網頁
共 2 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓3(3推 0噓 3→)留言6則,0人參與, 最新作者ug945 (ug945)時間11年前 (2014/12/13 02:50), 編輯資訊
0
0
3
內容預覽:
1.在start_request()中產生連結或是直接寫死在start_urls中. 2.xpath要限定範圍或數量. --. 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.162.69.5. 文章網址: http://www.ptt.cc/bbs/Python/M.14184102

推噓1(1推 0噓 4→)留言5則,0人參與, 最新作者allen511081 (藍)時間11年前 (2014/12/04 13:04), 編輯資訊
0
0
3
內容預覽:
小弟是python 新手,最近想要抓一個鳥會的DataBase,但這個DataBase的頁面沒有其他連結,於是自己以程式產出連結,並丟給爬蟲程式去爬,. 程式可以正常執行,無奈程式只要爬超過三個網頁,. 抓下來的資料順序就會出錯,請教各位大大,我該如何解決??. 下面附上程式碼. import sc
(還有546個字)
首頁
上一頁
1
下一頁
尾頁