[問題] iCloud 有踩到紅線的照片會被鎖號?

看板iOS (蘋果iOS作業系統)作者 (小夜)時間3周前 (2025/08/04 22:59), 3周前編輯推噓19(19033)
留言52則, 25人參與, 3周前最新討論串1/1
https://i.imgur.com/bS7J7kB.jpeg
剛剛看到討論區,有人的iCloud被鎖 下面有人回覆到 網友:(有聽過傳說,當上面有 未成年 幼兒的XXX 影片、照片,帳號就會被封) https://i.imgur.com/h9gi37j.jpeg
這一點是真的嗎? 還是只是謠言? 純粹好奇 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.173.175 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1754319563.A.178.html ※ 編輯: x090512319 (49.216.173.175 臺灣), 08/04/2025 23:05:51

08/04 23:13, 3周前 , 1F
你可以自己試試:/
08/04 23:13, 1F

08/04 23:23, 3周前 , 2F
畢竟美國有FBI 正常
08/04 23:23, 2F

08/04 23:44, 3周前 , 3F
XXX定義很廣,如果是那個的話,被鎖不意外吧
08/04 23:44, 3F

08/05 01:26, 3周前 , 4F
Google是有一堆案例
08/05 01:26, 4F

08/05 07:10, 3周前 , 5F
根據報導是沒有,2021年時因為多方抗議,Apple宣布終止CS
08/05 07:10, 5F

08/05 07:10, 3周前 , 6F
AM,你用CSAM當關鍵字看看當時新聞。其實我個人也不是反對
08/05 07:10, 6F

08/05 07:10, 3周前 , 7F
CSAM,但是Google這種偶有誤判,直接封幾乎無申訴可能性,
08/05 07:10, 7F

08/05 07:10, 3周前 , 8F
就讓人不會想用。
08/05 07:10, 8F

08/05 08:05, 3周前 , 9F
樓上說了這麼多,原po圖中用icloud還是被封了
08/05 08:05, 9F

08/05 08:05, 3周前 , 10F
雖然還不清楚那個人到底傳了什麼圖片上去
08/05 08:05, 10F

08/05 09:27, 3周前 , 11F
何必聽說 直接寫信問蘋果客服阿
08/05 09:27, 11F

08/05 11:39, 3周前 , 12F
之前蘋果的做法是檢查hash,幾乎不可能誤判
08/05 11:39, 12F

08/05 11:40, 3周前 , 13F
除非蘋果有改規則
08/05 11:40, 13F

08/05 12:12, 3周前 , 14F
蘋果在最新(2024/9/16)的iCloud條款的 五 B. 3.有加入
08/05 12:12, 14F

08/05 12:12, 3周前 , 15F
兒童安全(含CSAM)條款了
08/05 12:12, 15F

08/05 12:14, 3周前 , 16F
根據條款蘋果無需你同意就拿刪除內容
08/05 12:14, 16F

08/05 12:14, 3周前 , 17F
並且你違規蘋果是可以刪除帳號的
08/05 12:14, 17F

08/05 12:16, 3周前 , 18F
結論:是真的可以刪你帳號
08/05 12:16, 18F

08/05 13:11, 3周前 , 19F
剛剛查看了2022及2023版的條款尚無
08/05 13:11, 19F

08/05 13:12, 3周前 , 20F
真的是2024條款加進去的
08/05 13:12, 20F

08/05 13:57, 3周前 , 21F
所以是幼兒的什麼影片?如果是違法的被鎖剛好而已
08/05 13:57, 21F

08/05 14:09, 3周前 , 22F
二次元或動漫二創那種色色圖也算嗎?雖然我還是用Goo
08/05 14:09, 22F

08/05 14:09, 3周前 , 23F
gle的
08/05 14:09, 23F

08/05 14:27, 3周前 , 24F
看來只能用NAS了......
08/05 14:27, 24F

08/05 14:58, 3周前 , 25F
用hash所以Apple一定不會誤判? 你真的知道你在說什麼嗎
08/05 14:58, 25F

08/05 15:48, 3周前 , 26F
hash不會誤判是來搞笑的嗎?
08/05 15:48, 26F

08/05 16:20, 3周前 , 27F
蘋果的HASH不會誤判
08/05 16:20, 27F

08/06 08:19, 3周前 , 28F
好像有人搞不清楚Hash的產生方式和用途喔
08/06 08:19, 28F

08/06 10:23, 3周前 , 29F
創意XX ?
08/06 10:23, 29F

08/06 13:01, 3周前 , 30F
蘋果不清楚,谷歌一堆案例有人分享,有疑慮就別用雲端
08/06 13:01, 30F

08/06 13:01, 3周前 , 31F
存照片
08/06 13:01, 31F

08/06 13:16, 3周前 , 32F
所以啦不要相信雲端多麼穩定有保障有隱私 有問題會出問題
08/06 13:16, 32F

08/06 16:08, 3周前 , 33F
開Advanced Data Protection(進階資料防護),如果
08/06 16:08, 33F

08/06 16:08, 3周前 , 34F
你需要的話。
08/06 16:08, 34F

08/06 18:51, 3周前 , 35F
蘋果的掃描在檔案加密狀態也能加密掃描還有專利的樣子
08/06 18:51, 35F

08/06 19:55, 3周前 , 36F
雲端硬碟都這樣吧
08/06 19:55, 36F

08/06 19:56, 3周前 , 37F
以前google不是就有人拍自己小孩被ban的
08/06 19:56, 37F

08/07 16:33, 3周前 , 38F
Google 那次是家長拍小孩的患處給醫生遠端診斷,結
08/07 16:33, 38F

08/07 16:33, 3周前 , 39F
果就被判定是違規
08/07 16:33, 39F

08/08 00:39, 3周前 , 40F
審查制度是有罪推定,不要拿無罪推定的經驗來判斷
08/08 00:39, 40F

08/08 09:41, 3周前 , 41F
只有國家法律是無罪推定
08/08 09:41, 41F

08/08 10:07, 3周前 , 42F
那位被ban的,其實並沒有任何證據是因為CSAM而被鎖
08/08 10:07, 42F

08/08 10:08, 3周前 , 43F
只是這個討論串都朝這個方向猜,事實上iCloud TOC的規定
08/08 10:08, 43F

08/08 10:08, 3周前 , 44F
是要求使用者不得散佈CSAM素材,並沒有說會掃描CSAM
08/08 10:08, 44F

08/08 10:10, 3周前 , 45F
因為2024年底時,Apple還因為沒有執行CSAM掃描而被CSAM
08/08 10:10, 45F

08/08 10:10, 3周前 , 46F
受害者控告,這都是新版iCloud TOC後的事情
08/08 10:10, 46F

08/08 10:12, 3周前 , 47F
如果真有掃描,怎麼還會被告,另外有些宣稱因CSAM而被ban的
08/08 10:12, 47F

08/08 10:13, 3周前 , 48F
據說Apple只會去掃描那些利用iCloud分享功能而公開的素材
08/08 10:13, 48F

08/08 10:14, 3周前 , 49F
而非Apple去掃描iCloud圖庫
08/08 10:14, 49F

08/08 10:15, 3周前 , 50F
上面提到的進階資料防護,其原理應該就真的可以避免被掃描
08/08 10:15, 50F

08/08 10:16, 3周前 , 51F
沒開的還是開一開吧,不怕有CSAM素材,而是怕被誤判沒得救
08/08 10:16, 51F

08/08 16:30, 3周前 , 52F
真的
08/08 16:30, 52F
文章代碼(AID): #1eaChB5u (iOS)
文章代碼(AID): #1eaChB5u (iOS)