[問題] binary classification

看板DataScience作者 (麻醬跟麵要分開)時間6年前 (2018/05/19 03:13), 編輯推噓2(206)
留言8則, 5人參與, 6年前最新討論串1/1
在二元分類問題中 最後一層hidden layer往往使用sigmoid或是softmax 而其loss function在計算上是相同的 然而卻時常聽到使用softmax的準確率好於sigmoid的說法 不知道其中的道理或是可能的原因在哪裡呢? 找好久的資料還是不知道所以然QQ (其實是因為被質疑說我的模型為什麼不使用softmax來求助大家 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.71.215.69 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526670786.A.55F.html

05/19 12:42, 6年前 , 1F
我的認知是,在二元分類問題,如果輸出層是1維就用sigmoi
05/19 12:42, 1F

05/19 12:42, 6年前 , 2F
d, 是2維就用softmax ,但是應該沒有什麼理由要用2維的
05/19 12:42, 2F

05/19 12:42, 6年前 , 3F
輸出(?
05/19 12:42, 3F

05/19 15:04, 6年前 , 4F
因為softmax輸出總合為1 sigmoid不一定?
05/19 15:04, 4F

05/19 16:11, 6年前 , 5F
多一個output最後一層的參數會比單個sigmoid多一倍ㄅ
05/19 16:11, 5F

05/19 16:13, 6年前 , 6F
但數學式子完全一模一樣 覺得沒什麼必要用softmax
05/19 16:13, 6F

05/19 18:23, 6年前 , 7F
在二元分類下 sigmoid和softmax的節果應該是一樣的
05/19 18:23, 7F

05/22 10:27, 6年前 , 8F
也可問他為什麼不能用sigmoid
05/22 10:27, 8F
文章代碼(AID): #1Q_oN2LV (DataScience)
文章代碼(AID): #1Q_oN2LV (DataScience)