[討論] 如果contrastive learning僅用一個網路已刪文

看板DataScience作者 (中綠評論員)時間2年前 (2022/02/15 21:50), 編輯推噓1(100)
留言1則, 1人參與, 2年前最新討論串1/1
現在contrastive learning 如MoCo, SimCLR 都透過兩個同架構網路來學習 其中一支可能透過share parameters或momentum update來更新 但是像supervised contrastive learning 我們有沒有辦法直接將兩個同類的正樣本x1, x2與大量負樣本x3…xn放在一個batch 希望x1&x2靠近 x1.x2與x3…xn拉遠 會對結果造成什麼影響嗎? 有沒有論文在討論這樣的研究? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.105.212 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1644933023.A.4C0.html

02/16 10:16, 2年前 , 1F
Barlow twin是同一個網路喔
02/16 10:16, 1F
文章代碼(AID): #1Y2w-VJ0 (DataScience)
文章代碼(AID): #1Y2w-VJ0 (DataScience)