討論串[新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud就舉報
共 8 篇文章
內容預覽:
※ 引述《s25g5d4 (function(){})()》之銘言:六七年前在讀研究所的時候,因為主題是影像分析比對,所以有找了許多論文我就看過幾篇google 發表的論文 透過快速比對 hash 值來快速搜尋圖片. 論文中就提到他們把 原先比較距離使用的 兩個值相減平方 這類的概念. 直接改成把所
(還有660個字)
內容預覽:
AI可以將圖片分類,找出有問題的圖片. 具體做法有很多種,我們先簡介目前效果最好的神經網路. 首先會用數學模擬神經元的運算. 簡化來說每一層的網路輸出(Output)就是輸入(Input)乘上權重(Weight)再加上偏移(Bias). Output = Input * Weight + Bias.
(還有985個字)
內容預覽:
我只能說不管怎樣 他們一定會侵犯隱私. 人工審核照片的. 如果是我來設計抓未成年影像的AI. 我會先判斷年齡,用臉或是體形,判斷是否為未成年. 再判斷圖片是否有裸露,性行為. 當符合的特徵越多,就越有可能是未成年色情. 你用hash抓到,當然毫無疑問,不需人工審核就知道是犯罪圖片. 但未成年色情不只
(還有212個字)
內容預覽:
用檔案 hash 比對圖片實在太不可靠了,改個 1 bit 資料就可以讓 hash 不同. 我覺得蘋果不會做這種智障系統,否則這系統根本沒用. 所以去翻了一下相關文件. https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_S
(還有317個字)
內容預覽:
美國司法部的官網對兒童色情有簡要說明,最好去看一看,免得惹上大麻煩:. https://0rz.tw/L5P2T. 有幾點特別值得注意的:. 1. 美國聯邦定義的「兒童」指的是18足歲以下。. 2. 明確的性行為的法律定義並不要求一張圖片描述一個孩子正在進行性活動。. 如果一張裸體兒童的照片具有足夠
(還有404個字)