[問題] 關於PyTorch的反向傳播已刪文

看板DataScience作者 (--)時間2年前 (2022/02/25 00:01), 編輯推噓2(207)
留言9則, 5人參與, 2年前最新討論串1/1
小弟最近在看GIOU Loss的code 在awesome_SSD_FPN_GIoU/tools/train.py https://github.com/JaryHuang/awesome_SSD_FPN_GIoU 第178行只有提到loss.backward() 沒看到g-darknet/src/box.c https://github.com/generalized-iou/g-darknet 第225行開始的反向傳播公式 難道PyTorch不用寫公式嗎? 還是awesome_SSD_FPN_GIoU有寫相關程式? 請問大家,謝謝!! -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.45.149.21 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1645718475.A.520.html

02/25 00:10, 2年前 , 1F
寫在utils/loss內
02/25 00:10, 1F

02/25 00:12, 2年前 , 2F

02/25 00:42, 2年前 , 3F
對 不用寫 因為自動微分會自動把反向graph建起來
02/25 00:42, 3F

02/25 09:53, 2年前 , 4F
autograd 的機制 但你也可以自己寫backward就是
02/25 09:53, 4F

02/25 09:55, 2年前 , 5F
像之前EfficientNet在吵memory usage
02/25 09:55, 5F

02/25 09:55, 2年前 , 6F
就是backward要重寫 原本sigmoid activate會存起來
02/25 09:55, 6F

02/25 22:10, 2年前 , 7F
謝回應,難怪現在paper很少在導反向傳播公式
02/25 22:10, 7F

02/26 08:19, 2年前 , 8F
有些堅持用自己開發的工具的實驗室還是會寫啦 個人
02/26 08:19, 8F

02/26 08:19, 2年前 , 9F
認為paper內容不夠時拿來塞頁數蠻好用的:)
02/26 08:19, 9F
文章代碼(AID): #1Y5wlBKW (DataScience)
文章代碼(AID): #1Y5wlBKW (DataScience)