[問題] LSTM input length長度可以不用固定?
小弟我使用的是Keras
關於LSTM一直有一個疑問, 要如何去定義一個network Input跟Output是不固定的?
例如像是語言的翻譯,
句子的長度是不一定的,
也就是Input跟output都是不固定長度
在網路上找了些資料
https://datascience.stackexchange.com/questions/26366/tra
ining-an-rnn-with-examples-of-different-lengths-in-keras
看起來Keras是可以用不同長度的Input去做Training
不過我的疑惑又更多了
1. Input長度是否會影響結果?
例如: train ABCDEF --> abcdef, predict ABC 是否會得到 abc ??
2. 上列的網址, 各epoch的Input資料長度不一樣, 但是一次epoch內的input是一樣長的
Keras能做到一次epoch就把長短不一的資料丟進去train嗎?
如果能提供一些example就更好了
感謝大家~!
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.228.4.102
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1545189946.A.858.html
推
12/19 14:15,
6年前
, 1F
12/19 14:15, 1F
→
12/19 17:25,
6年前
, 2F
12/19 17:25, 2F
→
12/19 17:25,
6年前
, 3F
12/19 17:25, 3F
推
12/19 18:24,
6年前
, 4F
12/19 18:24, 4F
→
12/19 23:04,
6年前
, 5F
12/19 23:04, 5F
推
12/19 23:09,
6年前
, 6F
12/19 23:09, 6F
→
12/20 16:31,
6年前
, 7F
12/20 16:31, 7F
→
12/20 22:10,
6年前
, 8F
12/20 22:10, 8F
推
12/20 22:54,
6年前
, 9F
12/20 22:54, 9F
→
12/20 22:54,
6年前
, 10F
12/20 22:54, 10F
推
12/21 09:58,
6年前
, 11F
12/21 09:58, 11F
→
12/21 23:25,
6年前
, 12F
12/21 23:25, 12F
DataScience 近期熱門文章
PTT數位生活區 即時熱門文章