[請益] 抓取網路上的資料存入DB
最近再寫抓網路資料的程式
想請問一個問題
假設今天我要抓一批性質相同的資料
像是 300 個商品頁面,或 300 個個人名片頁面等等的
那我要每抓一個頁面 分析完我要的資料後就 insert 到 DB 中
還是要全部抓完後再一次存入 DB 中會比較好?
如果一直執行 insert 會讓速度變慢嗎?
另外,因為要訪問的頁面太多,所以我是用多個
<iframe src="getdata?abc=123></iframe>
的方式去摹擬同步的方式,那這樣如果我每個 iframe 裏面都有 connect insert
等等的動作的話,會不會讓 database 那邊錯亂阿QQ?
謝謝!
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 125.228.249.225
推
01/15 16:46, , 1F
01/15 16:46, 1F
→
01/15 16:47, , 2F
01/15 16:47, 2F
推
01/15 20:56, , 3F
01/15 20:56, 3F
→
01/16 00:16, , 4F
01/16 00:16, 4F
→
01/16 00:35, , 5F
01/16 00:35, 5F
→
01/16 00:35, , 6F
01/16 00:35, 6F
→
01/16 01:01, , 7F
01/16 01:01, 7F
→
01/16 01:03, , 8F
01/16 01:03, 8F
→
01/16 12:44, , 9F
01/16 12:44, 9F
→
01/16 12:45, , 10F
01/16 12:45, 10F
→
01/16 13:28, , 11F
01/16 13:28, 11F
→
01/16 13:58, , 12F
01/16 13:58, 12F
→
01/16 13:59, , 13F
01/16 13:59, 13F
PHP 近期熱門文章
PTT數位生活區 即時熱門文章