[問題] 如何使用R讀取並儲存網頁數據(每30秒更新)

看板R_Language作者時間9年前 (2016/04/02 13:53), 編輯推噓0(005)
留言5則, 3人參與, 最新討論串1/1
各位統計界的前輩們~ 以下問題請教~ 由於工作需求 需要使用R來進行網頁數據的讀取 並需要每30秒到1分鐘進行儲存更新(每次更新的數據保存起來) 建立成一個資料庫, 後續拿這些資料來進行logistic reggresion分析 請問該如何進行以上目的我知道讀取網頁可以使用XML package套件 require(XML) theURL bowPool 以上方法去抓到網頁上的表格數據 但是無法更新與儲存到R 先謝各位前輩了~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.10.141.245 ※ 文章網址: https://www.ptt.cc/bbs/R_Language/M.1459576404.A.BBE.html

04/02 14:28, , 1F
不用同時發在統計板跟R板,統計板分類錯誤,已刪
04/02 14:28, 1F

04/02 14:29, , 2F
問題請描述清楚,是如何遇到困難,困難的點為何,不
04/02 14:29, 2F

04/02 14:29, , 3F
然板友也無從幫起,不然就去codejob找人幫你寫吧
04/02 14:29, 3F

04/07 09:24, , 4F
可以用迴圈配合短暫延遲的指令吧
04/07 09:24, 4F

04/28 17:35, , 5F
寫好程式後用工作排程來做
04/28 17:35, 5F
文章代碼(AID): #1M_rvKk- (R_Language)
文章代碼(AID): #1M_rvKk- (R_Language)