[問題] AI是黑箱?

看板DataScience作者 (達)時間5年前 (2019/06/09 23:40), 5年前編輯推噓15(16154)
留言71則, 19人參與, 5年前最新討論串1/1
人工智慧發展迄今,取得較大進展的有兩個領域:圖形辨識和自然語言,而常使用的工 具有卷積神經網路(Convolutional Neural Network;CNN)和遞歸神經網路 (Recurrent Neural Network;RNN)。以CNN為例,程式精簡寫來不過百來行,其結構也明確,一或多 個卷積層(convolution layer)、頂端的全連通層(fully connected layer)、池化層 (pooling layer)等,但是究竟如何從一資料庫中學習、建立模型,以及如何對真實案例 給指令、下判斷,目前還是黑箱。 https://www.digitimes.com.tw/col/article.asp?id=1028 沒有深入研究 只知皮毛 覺得奇怪的是 現在的AI程式和硬體 不管再怎麼複雜 終究是人類寫出來的 根本就可說是百分之百透明啊 這樣只能說人類如果要仔細分析AI跑的過程 要花很多時間精力 並不能說AI是黑箱啊 Thanks -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 211.72.78.253 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1560094802.A.8C0.html

06/10 00:45, 5年前 , 1F
黑箱只是比喻,講的是很難用簡單邏輯來描述或解釋行為
06/10 00:45, 1F

06/10 00:46, 5年前 , 2F
就跟電腦裡所有的random變數都非真正random一樣
06/10 00:46, 2F

06/10 00:47, 5年前 , 3F
即使不是random,你可能也很難完全掌握所有資訊與狀態
06/10 00:47, 3F

06/10 08:15, 5年前 , 4F
黑箱只是方便跟外面的人解釋而已,解釋XX is some speci
06/10 08:15, 4F

06/10 08:15, 5年前 , 5F
fic function 這件事情,其實就是利用一個算法去擬合一
06/10 08:15, 5F

06/10 08:15, 5年前 , 6F
個空間中可能線性也可能非線性的資料集而已,而那個東
06/10 08:15, 6F

06/10 08:15, 5年前 , 7F
西可能是一個線性方程式也可能不是一個線性方程式,這
06/10 08:15, 7F

06/10 08:15, 5年前 , 8F
個方程是機器利用訓練資料學習出來的。
06/10 08:15, 8F

06/10 10:08, 5年前 , 9F
就跟福爾摩斯的推理過程一樣 對一般人根本是黑箱
06/10 10:08, 9F

06/10 11:07, 5年前 , 10F
我個人覺得依照現在的理論,你花很多時間可以看見他的每個
06/10 11:07, 10F

06/10 11:08, 5年前 , 11F
過程,但未必可以真的理解他為何會這樣
06/10 11:08, 11F

06/10 12:57, 5年前 , 12F
無法debug 所以叫黑箱
06/10 12:57, 12F

06/10 12:58, 5年前 , 13F
有修過類神經網路就知道 黑箱這個比喻真的很貼切
06/10 12:58, 13F

06/10 13:19, 5年前 , 14F
因為無法解釋阿
06/10 13:19, 14F

06/10 13:20, 5年前 , 15F
過去統計上的迴歸,還有一些理論基礎
06/10 13:20, 15F

06/10 13:21, 5年前 , 16F
NN 就暴力法,一堆 random 因素,根本無法解釋
06/10 13:21, 16F

06/10 13:22, 5年前 , 17F
不過實際上,NN解決的問題,的確很抽象
06/10 13:22, 17F

06/10 13:22, 5年前 , 18F
有些根本無法給清楚的定義
06/10 13:22, 18F

06/10 13:23, 5年前 , 19F
最簡單的貓狗辨識,你怎麼定義貓狗圖像?
06/10 13:23, 19F

06/10 17:58, 5年前 , 20F
我個人其實覺得貓狗圖像還是可以被定義出來,只是很複雜
06/10 17:58, 20F

06/10 17:59, 5年前 , 21F
沒辦法用10個參數來定義,但是可能可以用100萬個參數來
06/10 17:59, 21F

06/10 18:00, 5年前 , 22F
描述資料分布的情形,我認為跟「無法定義」還是不大一樣
06/10 18:00, 22F

06/10 19:16, 5年前 , 23F
我個人認為:黑箱就是不用懂也能算出結果的意思。不懂線代,
06/10 19:16, 23F

06/10 19:16, 5年前 , 24F
迴歸也就黑箱了!
06/10 19:16, 24F

06/10 19:28, 5年前 , 25F
沒有什麼不能理解的,說穿了,NN只是多層複雜化的logist
06/10 19:28, 25F

06/10 19:28, 5年前 , 26F
ic regressions ,自然他很容易擬合出非線性方程。Convo
06/10 19:28, 26F

06/10 19:28, 5年前 , 27F
lution 、Recurrence 、Attention實際上的功用就是把特
06/10 19:28, 27F

06/10 19:28, 5年前 , 28F
徵映射到更高維的空間的特徵變換Function。貓狗圖像一
06/10 19:28, 28F

06/10 19:28, 5年前 , 29F
樣可以用svm、hog的方式經過調參跟filter找到特徵跟分
06/10 19:28, 29F

06/10 19:28, 5年前 , 30F
類,只是cnn目前取代了這些需要仰賴專家的傳統方法而已
06/10 19:28, 30F

06/10 19:28, 5年前 , 31F
。logistic regression 也有kernel 的方法可以解決非線
06/10 19:28, 31F

06/10 19:28, 5年前 , 32F
性的問題,但是gpu當道的時代,大家覺得NN+gpu加上googl
06/10 19:28, 32F

06/10 19:28, 5年前 , 33F
e加持讓一堆人都覺得deep就是潮。
06/10 19:28, 33F

06/10 19:38, 5年前 , 34F
如果NN真的是無法理解的,那神經網路壓縮的那些方法像是
06/10 19:38, 34F

06/10 19:38, 5年前 , 35F
pruning也會無效才對
06/10 19:38, 35F

06/10 20:59, 5年前 , 36F
文中說的黑箱跟我們一般談到的黑箱不太一樣 可解釋性差
06/10 20:59, 36F

06/10 20:59, 5年前 , 37F
調參像煉丹 不知道為何可以導致無法確定潛在風險才是
06/10 20:59, 37F

06/10 20:59, 5年前 , 38F
問題
06/10 20:59, 38F

06/10 23:08, 5年前 , 39F
同意樓上的真的要說黑箱的部分就是神經網路的調參有很大
06/10 23:08, 39F

06/10 23:08, 5年前 , 40F
部分的經驗法則在,有時候參數設定沒什麼道理,但是整
06/10 23:08, 40F

06/10 23:08, 5年前 , 41F
體算法卻是可以解釋的,符合直覺的。
06/10 23:08, 41F

06/11 00:27, 5年前 , 42F
sxy講的似乎有點偏了,nn本身當然是可以理解的
06/11 00:27, 42F

06/11 00:28, 5年前 , 43F
黑箱指的應該是nn擬合出來的函數人類難以理解
06/11 00:28, 43F

06/11 00:29, 5年前 , 44F
不然也不會有人在搞XAI了
06/11 00:29, 44F

06/11 00:31, 5年前 , 45F
nn說穿了就是curve fitting,只是fit的參數超多而已
06/11 00:31, 45F

06/11 17:21, 5年前 , 46F
很多人不懂線代 解釋迴歸係數還是嚇嚇叫 這不是被稱
06/11 17:21, 46F

06/11 17:21, 5年前 , 47F
做黑箱的原因,函數的可解釋性才是主因
06/11 17:21, 47F

06/12 11:08, 5年前 , 48F
做矩陣自乘拿博士也是覺得自己會線代,很難嗎…
06/12 11:08, 48F

06/13 09:25, 5年前 , 49F
我的話要會SVD跟JORDAN FORM才敢說我會線代
06/13 09:25, 49F

06/13 10:20, 5年前 , 50F
會線代是很奇怪的說法,就只是個基本的工具但範圍很
06/13 10:20, 50F

06/13 10:20, 5年前 , 51F
廣,通常都只會熟常有用到的那些吧
06/13 10:20, 51F

06/14 22:09, 5年前 , 52F
以往解一個問題是定義一個函數,問題帶入該函數求出答案
06/14 22:09, 52F

06/14 22:09, 5年前 , 53F
;而NN是定義一個「定義一群函數」的函數,問題帶入那一
06/14 22:09, 53F

06/14 22:09, 5年前 , 54F
群函數求出答案,而那一群函數就是黑箱
06/14 22:09, 54F

06/15 17:52, 5年前 , 55F
我覺得數值方法中的optimization跟機器學習蠻相似的
06/15 17:52, 55F

06/16 17:02, 5年前 , 56F
機器學習中的optimization就是來自於最佳化啊
06/16 17:02, 56F

06/17 19:38, 5年前 , 57F
連用sgd train的over parameterized network為什麼可以
06/17 19:38, 57F

06/17 19:38, 5年前 , 58F
generalize well都一堆正在研究了 你說不是黑箱
06/17 19:38, 58F

06/17 19:39, 5年前 , 59F
連loss的landscape長怎樣都不知道 像是什麼mode connec
06/17 19:39, 59F

06/17 19:39, 5年前 , 60F
tivity
06/17 19:39, 60F

06/19 02:12, 5年前 , 61F
也沒人知道人類為何學習可以generalize well,但倒是沒
06/19 02:12, 61F

06/19 02:12, 5年前 , 62F
人特別說人類的決定是黑箱 @@
06/19 02:12, 62F

06/19 02:12, 5年前 , 63F
也沒人知道人類有沒有loss,有的話 landscape 是什麼
06/19 02:12, 63F

07/19 13:13, 5年前 , 64F
無法解釋給高層或客戶聽得懂 所以黑箱
07/19 13:13, 64F

07/19 13:14, 5年前 , 65F
rule based 很好解釋 只要有domain knowledge就能理
07/19 13:14, 65F

07/19 13:14, 5年前 , 66F
解程式為什麼這樣寫 deep learning無法和人解釋
07/19 13:14, 66F

08/05 03:50, 5年前 , 67F
用alphago的例子就是 棋手照著下一定會嬴 可是不知道
08/05 03:50, 67F

08/05 03:50, 5年前 , 68F
怎麼嬴 下這步的想法是什麼
08/05 03:50, 68F

09/02 13:45, 5年前 , 69F
activation function不一定是 logistics function, 唯一
09/02 13:45, 69F

09/02 13:45, 5年前 , 70F
可以說是a sequence of nonlinear transformations of a
09/02 13:45, 70F

09/02 13:45, 5年前 , 71F
vector
09/02 13:45, 71F
※ 編輯: dharma (211.72.78.253 臺灣), 09/12/2019 13:30:33
文章代碼(AID): #1S_IXIZ0 (DataScience)
文章代碼(AID): #1S_IXIZ0 (DataScience)