[問題] R mxnet deeplearning net調整

看板R_Language作者 (為什麼會流淚)時間8年前 (2017/03/13 00:58), 8年前編輯推噓2(2018)
留言20則, 3人參與, 最新討論串1/1
- 問題: 當你想要問問題時,請使用這個類別。 建議先利用 google 爬文,如輸入 「想查詢的關鍵字 site:www.ptt.cc/*/R_Language/」。 [問題類型]: 程式諮詢(我想用R 做某件事情,但是我不知道要怎麼用R 寫出來) [軟體熟悉度]: 入門(寫過其他程式,只是對語法不熟悉) [問題敘述]: 我想要用 R 中的 deep learning 套件 mxnet 做圖片mining https://goo.gl/PUyF0K 使用上面別人寫好的net InceptionResnetStem 他要求是 Input Shape is 299*299*3 要怎麼改成別種大小?? 我圖片可能640*480等等 雖然可以利用一些方法降維到299*299*3 不過直接改net應該比較好 *3的意思是 應該是RGB三維 299*299就是正方形圖片 另外 它裡面還有寫好多種 net 最後的 get_symbol 是上面的 net 合併嗎? 因為我看它裡面包了所有的函數 一層一層就像是 deep learning 所以才包了這些 可是 get_symbol <- function(num_classes=1000, scale=TRUE) 並沒有輸入data的地方 它包了很多層 也就是說 我只要用get_symbol就好了?? ----------------------------------------------------------- 謝謝 最近在玩 GPU 有跑成功一些例子 GPU真是超快 不過面臨到要調整別人的網路了 [程式範例]: [環境敘述]: linux mint18.1 GTX-1070 [關鍵字]: mxnet -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.137.175.169 ※ 文章網址: https://www.ptt.cc/bbs/R_Language/M.1489337883.A.A64.html

03/13 01:17, , 1F
這NET好複雜Orz 應該要用browser一層層試了= =
03/13 01:17, 1F

03/13 01:17, , 2F
是用get_symbol就好沒錯~~
03/13 01:17, 2F
聽說這是 google net + residual net的變形 感覺很強 不過很複雜 我盡量看了 還是不太懂299*299到底是哪來的 也找不到example ※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:25:44

03/13 01:29, , 3F
299 * 299應該是原始設計就是那樣了
03/13 01:29, 3F

03/13 01:29, , 4F
可能需要先把它整個圖畫出來 才知道怎麼改
03/13 01:29, 4F
所以比較簡單的方法 就是把圖片降維到299*299 ? ※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:34:03

03/13 01:33, , 5F
sym <- get_symbol(); write(sym$as.json(), "symbo
03/13 01:33, 5F

03/13 01:33, , 6F
l.json") 存下symbol看看
03/13 01:33, 6F

03/13 01:33, , 7F
從json去推吧~~~
03/13 01:33, 7F

03/13 01:34, , 8F
不然可以用用看 mx.symbol.infer.shape
03/13 01:34, 8F

03/13 01:35, , 9F
最簡單方法就是把圖片降維
03/13 01:35, 9F

03/13 01:35, , 10F
不過也有可能他這個net最低是要用299 * 299
03/13 01:35, 10F

03/13 01:35, , 11F
以上都適用~~ 這種NET 我也遇過
03/13 01:35, 11F

03/13 01:35, , 12F
可能還是要餵資料進去看看才知道
03/13 01:35, 12F
嗯嗯 謝謝 我繼續摸摸看 不然就要看它的paper了 ※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:37:35

03/13 01:38, , 13F
dat<-array(rnorm(299*299*3*10), c(299,299,3,10))
03/13 01:38, 13F

03/13 01:38, , 14F
mx.symbol.infer.shape(sym, data = dat)
03/13 01:38, 14F

03/13 01:38, , 15F
試試看XD
03/13 01:38, 15F
原來魔鬼藏在paper中 http://imgur.com/jO1bsL9
裡面有寫299*299怎麼來的 也有圖 PAPER在這 https://arxiv.org/abs/1602.07261 看來要找時間讀一讀了 ※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:40:46

03/13 01:42, , 16F
恩恩~~
03/13 01:42, 16F

03/13 13:57, , 17F
用外部程式條圖片大小呢?例如用imagemagick
03/13 13:57, 17F
圖片是 480*640*3 降維到299*299*3 圖片還不太失真 只是維度好大 然後圖片有2萬張 RAM爆掉了 無法 input 所有的data 在想要怎麼處理 分次處理吧 不然就是找簡單一點的deep learning ※ 編輯: f496328mm (134.208.26.172), 03/13/2017 14:38:00

03/13 18:24, , 18F
我記得mxnet可以讀ubyte資料,然後拆批做,但是我沒
03/13 18:24, 18F

03/13 18:24, , 19F
什麼研究
03/13 18:24, 19F
我也是打算分批做 如果不行的話 就試試看VGG ※ 編輯: f496328mm (42.66.176.54), 03/13/2017 22:39:55

03/19 10:22, , 20F
想問你跑原本的model結果怎樣
03/19 10:22, 20F
文章代碼(AID): #1OnNuRfa (R_Language)
文章代碼(AID): #1OnNuRfa (R_Language)