[請益] curl 抓取網頁超時問題

看板PHP作者 ( )時間16年前 (2009/06/24 18:51), 編輯推噓4(409)
留言13則, 4人參與, 最新討論串1/1
要寫一個抓取網頁原始檔的程式 已經設定了 set_time_limit為0 $url輸入大部份的網頁都可以順利跑出來 但遇到少數某些網頁時還是跑不出來 以下是跑不出來的範例 <?php ini_set('set_time_limit', '0'); $url = "http://rss.dw-world.de/xml/podcast_made-in-germany_en"; $ch = curl_init(); curl_setopt ($ch, CURLOPT_URL, $url); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); $html = curl_exec($ch); curl_close($ch); echo $html; ?> 希望各位版友幫我看一下為什麼程式無法完整執行? 要怎麼修改呢? 謝謝各位版友 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.194.151.6

06/24 20:00, , 1F
set_time_limit(0); 試試看
06/24 20:00, 1F

06/25 00:47, , 2F
試過了 也是不行..
06/25 00:47, 2F

06/25 11:39, , 3F
貼上錯誤訊息看看吧
06/25 11:39, 3F

06/25 21:22, , 4F
網站無法顯示該網頁 Http500
06/25 21:22, 4F

06/25 21:23, , 5F
好像是資料還沒下載完 預設時間到了就停止 所以網頁
06/25 21:23, 5F

06/25 21:23, , 6F
才無法執行..
06/25 21:23, 6F

06/26 09:33, , 7F
資料量還滿大的 你去php.ini將memory_limit改大一點
06/26 09:33, 7F

06/26 09:33, , 8F
可能超過記憶體讀取的量 就終止了
06/26 09:33, 8F

06/26 20:40, , 9F
我已經把記憶體設定很大了 好像是因為timeout的問題
06/26 20:40, 9F

06/26 22:40, , 10F
網路速度的問題吧?
06/26 22:40, 10F

06/26 23:25, , 11F
我也覺得問題是在網路速度 但連到國外的網頁很難避免
06/26 23:25, 11F

06/26 23:32, , 12F
有辦法解決這問題嗎?
06/26 23:32, 12F

06/29 09:16, , 13F
直接修改php.ini的max_execution_time?!
06/29 09:16, 13F
文章代碼(AID): #1AGWKbVL (PHP)
文章代碼(AID): #1AGWKbVL (PHP)