[討論] representation learning幾個問題(batchn
1. 很多representation learning的論文都有提到 避免使用batch normalization 會有i
nformation leaking的問題。但這點我不太了解,有沒有什麼具體的例子?
2. 使用opencv, cv2.imread和cv2.imwrite 兩張圖(原圖和儲存的圖)竟有差別(看起
來一樣、但用我的辨識model預測結果卻不同),這樣是正常的嗎?
3. 使用triplet loss時,我將三張圖片(a, p, n),分別丟到同一model(ResNet18)產出(
Ra, Rp, Rn),
以此方法進行訓練發現training loss在下降,但validation loss在上升(類似overfitt
ing)
反而用contrastive learning訓練好的model,用triplet loss計算1個epoch(不更新),
得到更低的triplet loss。
表示triplet loss應該還沒收斂(有更好的distribution)
為何會如此呢?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.13.42 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1626159062.A.2E3.html
→
07/13 18:14,
3年前
, 1F
07/13 18:14, 1F
→
07/13 18:14,
3年前
, 2F
07/13 18:14, 2F
→
07/13 18:16,
3年前
, 3F
07/13 18:16, 3F
→
07/13 18:19,
3年前
, 4F
07/13 18:19, 4F
→
07/13 18:19,
3年前
, 5F
07/13 18:19, 5F
→
07/14 14:46,
3年前
, 6F
07/14 14:46, 6F
→
07/14 14:46,
3年前
, 7F
07/14 14:46, 7F
推
07/14 16:18,
3年前
, 8F
07/14 16:18, 8F
→
07/14 16:19,
3年前
, 9F
07/14 16:19, 9F
→
07/20 14:34, , 10F
07/20 14:34, 10F
→
07/20 14:34, , 11F
07/20 14:34, 11F
→
07/20 14:35, , 12F
07/20 14:35, 12F
→
07/20 14:37, , 13F
07/20 14:37, 13F
→
07/20 14:39, , 14F
07/20 14:39, 14F
→
07/20 14:39, , 15F
07/20 14:39, 15F
→
07/20 14:40, , 16F
07/20 14:40, 16F
→
07/20 14:41, , 17F
07/20 14:41, 17F
→
07/20 14:42, , 18F
07/20 14:42, 18F
推
07/20 16:10, , 19F
07/20 16:10, 19F
→
07/23 14:15, , 20F
07/23 14:15, 20F
→
07/23 14:15, , 21F
07/23 14:15, 21F
→
07/24 23:38, , 22F
07/24 23:38, 22F
→
07/24 23:38, , 23F
07/24 23:38, 23F
推
08/01 23:11, , 24F
08/01 23:11, 24F
→
08/01 23:11, , 25F
08/01 23:11, 25F
→
08/01 23:11, , 26F
08/01 23:11, 26F
DataScience 近期熱門文章
PTT數位生活區 即時熱門文章