[問題] Autoencoder屬於監督式學習or非監督式學

看板DataScience作者 (【積π】)時間2年前 (2021/05/31 14:03), 編輯推噓3(305)
留言8則, 4人參與, 2年前最新討論串1/2 (看更多)
圖像瑕疵檢測常常遇到都只有正常的資料 異常的資料非常少 所以會使用autoencoder的方法(或有更好的方法) 資訊上都寫autoencoder是非監督式學習 但有個疑問 1.不需要管資料直接把所有不論好壞都去訓練(因為不需要標記) 2.還是只把好的去訓練就好 這樣還是要先分好壞,再把好的去訓練 這樣不就又屬於監督式學習了嗎 希望前輩給點指教 感謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.160.183.71 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1622440995.A.CD3.html

05/31 14:17, 2年前 , 1F
garbage in garbage out. 如果丟一堆爛資料進去 最後還是無法
05/31 14:17, 1F

05/31 14:17, 2年前 , 2F
訓練編碼器學習到好的壓縮、解壓縮方式,這與有沒有標記無關
05/31 14:17, 2F

05/31 14:40, 2年前 , 3F
非監督式學習 而且屬於一種生成模型
05/31 14:40, 3F

05/31 23:07, 2年前 , 4F
AE也是可以做分類啦 latent space做clustering之類的
05/31 23:07, 4F

06/01 04:30, 2年前 , 5F
AE是純粹的濃縮再解濃縮,可以用來做分類
06/01 04:30, 5F

06/01 04:31, 2年前 , 6F
用來當生成模型也行,訓練好用decoder那一半就行
06/01 04:31, 6F

06/01 04:32, 2年前 , 7F
AE當然可以用監督式學習訓練,非監督式應該也OK
06/01 04:32, 7F

06/01 04:33, 2年前 , 8F
不過訓練演算法要配合資料,沒match好就是垃圾進垃圾出
06/01 04:33, 8F
文章代碼(AID): #1Wj7mZpJ (DataScience)
文章代碼(AID): #1Wj7mZpJ (DataScience)