[問題] 深度學習(deep learning)出問題
各位前輩大大們好<(_ _)>
我使用Google提供的tensorflow,
並且修改網路上提供的範例,
進行類神經網路深度學習的製作,
其實...我只有實驗2層時,算是成功的,但是想要進入深度學習的領域,
增加隱藏層時,出了問題QAQ
使用relu計算隱藏層,sigmoid計算最後結果,
我的數值不知道為甚麼,沒有乖乖的修正,全部都變成1了...
我也有試著全用sigmoid計算,但結果是全部為0,
就算把每層節點數增加到300個,好像也沒有幫助
我試著觀察權重,發現權重好像都沒有更新...
聽說...別人可以做到146層(?
人家怎麼10層就進行不下去了啦TAT
以下是我的程式碼
https://pastebin.com/JZryY82w
貴求各位先進提點我出了甚麼問題,我該如何修正m(_ _)m
--
往昔所造諸罪業
皆由無始貪瞋癡
從身語意之所生...
一切,我今皆懺悔!
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.163.157.60
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1505925975.A.AE1.html
推
09/21 01:15, , 1F
09/21 01:15, 1F
應該還好吧(////▽////)
主要是在FB上面看到就用了>///<
推
09/21 01:22, , 2F
09/21 01:22, 2F
→
09/21 01:22, , 3F
09/21 01:22, 3F
推
09/21 01:26, , 4F
09/21 01:26, 4F
有查過,我再多查查
推
09/21 03:25, , 5F
09/21 03:25, 5F
→
09/21 03:26, , 6F
09/21 03:26, 6F
我用1050Ti執行GPU運算,10層10w迴圈大約也在3min內,感覺還好
推
09/21 05:53, , 7F
09/21 05:53, 7F
有試過,但...沒有效果
推
09/21 09:36, , 8F
09/21 09:36, 8F
→
09/21 09:36, , 9F
09/21 09:36, 9F
不是很清楚怎改...我會研究看看!
請問您所說的lr是學習率?不是很清楚如何把我的loss改成logistic...
您說的logistic是指x - x * z + log(1 + exp(-x))嗎?
推
09/21 10:48, , 10F
09/21 10:48, 10F
好的,非常感謝您 <3
推
09/21 13:09, , 11F
09/21 13:09, 11F
這是tf給予的函式,好像沒有random,但程式的其他地應該有對變數進行沒錯
→
09/21 13:12, , 12F
09/21 13:12, 12F
謝謝您!
推
09/21 14:04, , 13F
09/21 14:04, 13F
→
09/21 14:05, , 14F
09/21 14:05, 14F
好的,謝謝您!我會再添加相關設定!
推
09/21 19:24, , 15F
09/21 19:24, 15F
之前因為沒發現sigmoid跟softmax明顯差距,所以就用sigmoid了,之後會改用softmax,
謝謝您的建議!
→
09/22 02:00, , 16F
09/22 02:00, 16F
→
09/22 02:00, , 17F
09/22 02:00, 17F
→
09/22 02:01, , 18F
09/22 02:01, 18F
之所以會用是因為一開始學習時都是看到sigmoid,也真的有部份教學用sigmoid,
所以不小心就誤用了>"<
謝謝提醒<(_ _)>
→
09/22 02:01, , 19F
09/22 02:01, 19F
→
09/22 02:01, , 20F
09/22 02:01, 20F
當時找到這個範例最方便套用,
試用也沒有問題,一時沒想到會有版本新舊問題,感謝您!
→
09/22 02:01, , 21F
09/22 02:01, 21F
→
09/22 02:02, , 22F
09/22 02:02, 22F
→
09/22 02:02, , 23F
09/22 02:02, 23F
→
09/22 02:03, , 24F
09/22 02:03, 24F
→
09/22 02:05, , 25F
09/22 02:05, 25F
→
09/22 02:05, , 26F
09/22 02:05, 26F
→
09/22 02:07, , 27F
09/22 02:07, 27F
我以前聽教學說雖然沒有一定,但節點數通常為輸入的1.5倍,我實驗原本輸入是8筆
所以就沒想到調節點數了>"<
非常感謝您無私的教導 m(_ _)m
推
09/22 02:38, , 28F
09/22 02:38, 28F
→
09/22 02:38, , 29F
09/22 02:38, 29F
→
09/22 02:38, , 30F
09/22 02:38, 30F
→
09/22 02:38, , 31F
09/22 02:38, 31F
推
09/22 02:52, , 32F
09/22 02:52, 32F
→
09/22 02:52, , 33F
09/22 02:52, 33F
→
09/22 02:52, , 34F
09/22 02:52, 34F
→
09/22 02:52, , 35F
09/22 02:52, 35F
推
09/22 03:00, , 36F
09/22 03:00, 36F
→
09/22 03:00, , 37F
09/22 03:00, 37F
→
09/22 03:00, , 38F
09/22 03:00, 38F
我原本以為...BP會把一切問題都解決的...輸出結果錯誤,所以就把權重修正到合理範圍
,但沒想到...原來BP好像有個修正的極限(?
其實其實我窩窩當初是想要做成CNN的,但研究一段時間不知道怎寫出來,
而且我要研究資料好像也不合適用CNN,所以才放棄的>////<
因為我當時剛接觸時,手邊資料很亂...我基本上要再3天內實做出基本能跑的DL...
所以工具看到了就用...沒想到有名的Google出的工具這底層,
其實我也是現在才接觸到Keras的,或許我當初早點接觸到,就不會用TF了 >"<
推
09/22 18:19, , 39F
09/22 18:19, 39F
→
09/22 18:19, , 40F
09/22 18:19, 40F
似乎...沒有降低...我正在研究把Loss改成怎樣好
有位大大幫我做了一些修正,現在問題已解決,謝謝大家的幫助與支持,
接下來我會慢慢吸收這段時間大家提供給我的資訊,
感謝大家m(_ _)m
推
09/23 15:57, , 41F
09/23 15:57, 41F
→
09/23 15:57, , 42F
09/23 15:57, 42F
嗯,我英文苦手QAQQQ
不過還是感謝大大給我這個學習的機會 <3
後續嘛~原則上希望不要再有問題了 :P
推
09/25 02:07, , 43F
09/25 02:07, 43F
是說其實我到現在還不是很清楚lr設多少比較好,要如何判斷...
可用的lr比我逾期的低了100倍以上...
推
09/25 16:23, , 44F
09/25 16:23, 44F
很想知道設這數值的原因...我目前也是差不多設這數值再修
但以前看教學,0.9都有人設了...說學比較快
我真正參考的範例是0.1,完全無法想像1e-5
推
09/25 18:58, , 45F
09/25 18:58, 45F
→
09/25 18:59, , 46F
09/25 18:59, 46F
→
09/25 19:00, , 47F
09/25 19:00, 47F
我目前就是使用AdamOptimizer,我也聽說先大後小比較好,但relu一直死掉...
經過版上大大改過,才知道要小到1e-5....
目前不知道要怎求出學習率,
我只找出一個小規律,就是如果學習率*訓練次數大於1好像會死....
推
09/26 04:18, , 48F
09/26 04:18, 48F
→
09/26 04:18, , 49F
09/26 04:18, 49F
嗯,謝謝大大提醒!
所以層數,節點數,訓練次數也是自己慢慢試囉Q
m(_ _)m
推
09/27 01:33, , 50F
09/27 01:33, 50F
→
09/27 01:34, , 51F
09/27 01:34, 51F
好的,謝謝您!總之就是慢慢觀察結果進行微調了,謝謝 <(_ _)>
※ 編輯: st1009 (1.164.93.71), 09/27/2017 19:51:52
討論串 (同標題文章)
完整討論串 (本文為第 1 之 3 篇):
Python 近期熱門文章
PTT數位生活區 即時熱門文章