[問題] LSTM weight

看板DataScience作者 (supercat)時間4年前 (2020/05/18 22:14), 4年前編輯推噓3(308)
留言11則, 5人參與, 4年前最新討論串1/1
大家好,最近被教授要求要去瞭解RNN及LSTM,教授問了 LSTM裡面 1.哪些weight有特徵提取的功能? 2.哪些weight有降維的功能? 我用LSTM 降維(dimension reduction) 特徵提取(feature extraction)以上組合去googl e,但都好像沒有比較適合的文章,當然也可能是我知識不足看不出來,想請教一下版上 各位的看法 先謝謝願意回答的版友了 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 117.19.161.124 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1589811270.A.305.html

05/18 22:20, 4年前 , 1F
我猜是不是在講內部不同gate的作用?
05/18 22:20, 1F
原來如此,那可能是我誤會教授的意思了... ※ 編輯: z123296 (117.19.161.124 臺灣), 05/18/2020 23:24:01

05/19 17:00, 4年前 , 2F
10 -> RNN (3) -> DNN(2) 前面 42 個 fe, 後面8個 dr
05/19 17:00, 2F

05/19 17:00, 4年前 , 3F
? 我很淺
05/19 17:00, 3F

05/20 02:15, 4年前 , 4F
資料進短記憶和短進長應該是1想要問的吧 那這樣2大概就是
05/20 02:15, 4F

05/20 02:21, 4年前 , 5F
資料'合'在一起的那些點 大概喇
05/20 02:21, 5F

05/20 17:19, 4年前 , 6F

05/23 09:10, 4年前 , 7F
查lstm+原理,去看一下就知道了。順便給你一點提示,降
05/23 09:10, 7F

05/23 09:10, 4年前 , 8F
維代表意義是丟失不重要的信息後依然能保留大部分的信
05/23 09:10, 8F

05/23 09:10, 4年前 , 9F
息,提取是乘上權重後會透過權重加重重要特徵。
05/23 09:10, 9F

05/23 09:13, 4年前 , 10F
lstm比rnn有效的原因是他引入了一個slow一個fast的cell
05/23 09:13, 10F

05/23 09:13, 4年前 , 11F
state,比喻人類記憶能力就是長期記憶跟短期記憶
05/23 09:13, 11F
文章代碼(AID): #1UmfX6C5 (DataScience)
文章代碼(AID): #1UmfX6C5 (DataScience)