[問題] 如何使用R讀取並儲存網頁數據(每30秒更新)
各位統計界的前輩們~
以下問題請教~
由於工作需求 需要使用R來進行網頁數據的讀取
並需要每30秒到1分鐘進行儲存更新(每次更新的數據保存起來)
建立成一個資料庫, 後續拿這些資料來進行logistic reggresion分析
請問該如何進行以上目的我知道讀取網頁可以使用XML package套件
require(XML)
theURL
bowPool
以上方法去抓到網頁上的表格數據 但是無法更新與儲存到R
先謝各位前輩了~
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.10.141.245
※ 文章網址: https://www.ptt.cc/bbs/R_Language/M.1459576404.A.BBE.html
→
04/02 14:28, , 1F
04/02 14:28, 1F
→
04/02 14:29, , 2F
04/02 14:29, 2F
→
04/02 14:29, , 3F
04/02 14:29, 3F
→
04/07 09:24, , 4F
04/07 09:24, 4F
→
04/28 17:35, , 5F
04/28 17:35, 5F
R_Language 近期熱門文章
PTT數位生活區 即時熱門文章