[問題] Autoencoder屬於監督式學習or非監督式學

看板DataScience作者 (【積π】)時間3年前 (2021/05/31 14:03), 編輯推噓5(509)
留言14則, 6人參與, 最新討論串1/2 (看更多)
圖像瑕疵檢測常常遇到都只有正常的資料 異常的資料非常少 所以會使用autoencoder的方法(或有更好的方法) 資訊上都寫autoencoder是非監督式學習 但有個疑問 1.不需要管資料直接把所有不論好壞都去訓練(因為不需要標記) 2.還是只把好的去訓練就好 這樣還是要先分好壞,再把好的去訓練 這樣不就又屬於監督式學習了嗎 希望前輩給點指教 感謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.160.183.71 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1622440995.A.CD3.html

05/31 14:17, 3年前 , 1F
garbage in garbage out. 如果丟一堆爛資料進去 最後還是無法
05/31 14:17, 1F

05/31 14:17, 3年前 , 2F
訓練編碼器學習到好的壓縮、解壓縮方式,這與有沒有標記無關
05/31 14:17, 2F

05/31 14:40, 3年前 , 3F
非監督式學習 而且屬於一種生成模型
05/31 14:40, 3F

05/31 23:07, 3年前 , 4F
AE也是可以做分類啦 latent space做clustering之類的
05/31 23:07, 4F

06/01 04:30, 3年前 , 5F
AE是純粹的濃縮再解濃縮,可以用來做分類
06/01 04:30, 5F

06/01 04:31, 3年前 , 6F
用來當生成模型也行,訓練好用decoder那一半就行
06/01 04:31, 6F

06/01 04:32, 3年前 , 7F
AE當然可以用監督式學習訓練,非監督式應該也OK
06/01 04:32, 7F

06/01 04:33, 3年前 , 8F
不過訓練演算法要配合資料,沒match好就是垃圾進垃圾出
06/01 04:33, 8F

06/08 04:51, , 9F
你這個叫data preprocessing 把資料弄乾淨 不叫監督式學
06/08 04:51, 9F

06/08 04:51, , 10F
06/08 04:51, 10F

06/08 04:53, , 11F
garbage in = garbage out . 把垃圾清一清,跟label過的g
06/08 04:53, 11F

06/08 04:53, , 12F
ood data是不一樣的事
06/08 04:53, 12F

06/19 04:03, , 13F
模型會去fit占多數的正常資料, 餵壞資料時, reconstruct
06/19 04:03, 13F

06/19 04:03, , 14F
error會偏大, 就能判別是壞資料了
06/19 04:03, 14F
文章代碼(AID): #1Wj7mZpJ (DataScience)
文章代碼(AID): #1Wj7mZpJ (DataScience)