[新聞] 蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因

看板MobileComm (行動通訊)作者 (誠誠小屁孩)時間1年前 (2023/09/02 08:35), 編輯推噓32(35367)
留言105則, 47人參與, 1年前最新討論串1/1
────────────────────────────────────── 1.原文連結:連結過長者請使用短網址。 https://www.ithome.com/0/716/194.htm 2.原文標題:標題須完整寫出且須符合內文(否則依板規刪除並水桶)。 蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因 3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須) IT之家/故淵 4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。 2023/9/1 8:24:41 IT之家 9 月1 日消息,蘋果公司在遭到媒體、非營利機構和消費者的諸多反對之後,於 去年12 月宣布,iCloud 雲服務停止兒童性虐待材料(CSAM)檢測計劃。 這項檢測計劃於2021 年8 月開始測試,主要會檢測存儲在iCloud 的CSAM 圖像資料,但 自推出以來備受爭議。 https://i.imgur.com/l9soptc.jpg
蘋果最初表示,CSAM 檢測將在2021 年底之前在iOS15 和 iPad OS15 的更新中實現,但 該公司最終根據"客戶、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。 一家名為Heat Initiative 的兒童安全組織本週告知蘋果公司,正組織一項活動,要求公 司從iCloud 中“檢測、報告和刪除”CSAM,並要求為用戶提供更豐富的工具,來向蘋果 公司 舉報CSAM 內容。 IT之家援引Wired 報導,蘋果公司罕見地回應了Heat Initiative,蘋果公司用戶隱私和 兒童安全總監Erik Neuenschwander 在回應中概述了放棄開發iCloud CSAM 掃描功能的原 因: " 兒童性虐待材料是令人憎惡的,我們致力於打破使兒童易受其影響的脅迫和影響鏈。 不過掃描每個用戶私人存儲的iCloud 數據,會成為數據竊賊發現和利用創造新的威 脅載體。 而且這種方式會導致很多預期之外的嚴重後果,例如掃描一種類型的內容為批量監控 打開了大門,並可能產生跨內容類型搜索其他加密消息傳遞系統的願望。 " 蘋果公司此前在關閉CSAM 計劃時表示: " 在廣泛徵求專家意見,收集我們去年提出的兒童保護舉措的反饋後,我們正加大對 2021 年12 月上線的Communication Safety 功能的投資。 我們決定不再推進我們之前提 出的iCloud 照片的CSAM 檢測工具。 兒童可以在沒有公司梳理個人數據的情況下得到保護,我們將繼續與政府、兒童倡導 者和其它公司合作,幫助保護年輕人,維護他們的隱私權,讓互聯網成為兒童和我們所有 人更安全的地方。 " 相關閱讀: 《 沉寂1 年多後,蘋果宣布iCloud 放棄兒童性虐待材料(CSAM)檢測計劃 》 5.心得/評論:內容須超過繁體中文30字(不含標點符號)。 ────────────────────────────────────── Wired 報導原文: https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/ Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy Child safety group Heat Initiative plans to launch a campaign pressing Apple on child sexual abuse material scanning and user reporting. The company issued a rare, detailed response on Thursday. 以下引述 Erik Neuenschwander 的說法: “Child sexual abuse material is abhorrent and we are committed to breaking the chain of coercion and influence that makes children susceptible to it,” Erik Neuenschwander, Apple's director of user privacy and child safety, wrote in the company's response to Heat Initiative. He added, though, that after collaborating with an array of privacy and security researchers, digital rights groups, and child safety advocates, the company concluded that it could not proceed with development of a CSAM-scanning mechanism, even one built specifically to preserve privacy. “Scanning every user’s privately stored iCloud data would create new threat vectors for data thieves to find and exploit," Neuenschwander wrote. "It would also inject the potential for a slippery slope of unintended consequences. Scanning for one type of content, for instance, opens the door for bulk surveillance and could create a desire to search other encrypted messaging systems across content types.” 這件事情總算是正式落幕了, 他們也算是正式承認大眾最為擔心的點, 也就是 CSAM資料庫被抽換成或添加政府維穩需要的字詞或者資訊, 並且系統可以加以延伸判斷圖片以外的事情, 且不會破壞點對點加密,所以非常「有隱私」。 個人覺得是很高興看到蘋果至少在這件事情上有最後撤回並給出正式的理由, 當初一度炎上 Reddit 的時候基本上鬧得沸沸揚揚,EFF 還直接開無人飛機去總部抗議, 當初一度也沒有做出任何道歉然後一直辯解, 連自家的金招牌 Air Force 1 (庫克說法) 都拿出來當擋箭牌, 讓很多人看了更加的憤怒, 最終導致九月那場預錄發布會蘋果根本連一個「隱私」字詞都不敢提。 https://www.eff.org/files/banner_library/apple_plane_photo-edited2.jpg
https://www.eff.org/deeplinks/2021/09/why-eff-flew-plane-over-apples-headquarters https://www.youtube.com/watch?v=OQUO1DSwYN0
不過也許他們當初真的很純真的覺得這樣做很好,也許... --

12/04 23:42,
[新聞]有狼師一直戳女學森(.)(.)而被家長吉上法院...
12/04 23:42

12/04 23:44,
) (
12/04 23:44

12/04 23:46,
( Y )
12/04 23:46

12/04 23:48,
\|/
12/04 23:48

12/05 00:47,
(╮⊙▽⊙)ノ|||
12/05 00:47

12/05 01:17,
/|\╰╮o( ̄▽ ̄///)<
12/05 01:17
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.192.87.99 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/MobileComm/M.1693614954.A.71B.html

09/02 09:11, 1年前 , 1F
這世界上以好事之名做的壞事可多了,少了一件也好
09/02 09:11, 1F

09/02 09:16, 1年前 , 2F
這是賣點吧 別人都在幹佔據道德高地破壞個人隱私的
09/02 09:16, 2F

09/02 09:16, 1年前 , 3F
事情 蘋果反而不湊一杯羹
09/02 09:16, 3F

09/02 09:17, 1年前 , 4F
德政
09/02 09:17, 4F

09/02 09:17, 1年前 , 5F
之前google 連拍家中小孩生病的照片給醫生看也封帳
09/02 09:17, 5F

09/02 09:17, 1年前 , 6F
真他媽走火入魔
09/02 09:17, 6F

09/02 09:20, 1年前 , 7F
google相簿之前視訊醫療,拍小孩生病的照片就被AI
09/02 09:20, 7F

09/02 09:20, 1年前 , 8F
因為有不可直言名字高層拍的照片(x
09/02 09:20, 8F

09/02 09:20, 1年前 , 9F
判定封帳號報警真的很扯,所以說這就是以好心的名義
09/02 09:20, 9F

09/02 09:21, 1年前 , 10F
做的壞事
09/02 09:21, 10F

09/02 09:22, 1年前 , 11F
政府可以隨意把判定兒色的關鍵字替換成他們想要偷看
09/02 09:22, 11F

09/02 09:23, 1年前 , 12F
的資訊,整個加密在這個「保護兒童」的系統下跟沒有
09/02 09:23, 12F

09/02 09:23, 1年前 , 13F
一樣
09/02 09:23, 13F

09/02 09:24, 1年前 , 14F

09/02 09:25, 1年前 , 15F
想像一下中國網軍駭客可以對這個漏洞幹嘛
09/02 09:25, 15F

09/02 09:25, 1年前 , 16F
反觀google 拍自己的屁股也會被鎖帳號
09/02 09:25, 16F

09/02 09:27, 1年前 , 17F
09/02 09:27, 17F

09/02 09:27, 1年前 , 18F
之前google那件事最扯的不是判錯 是申訴還不給解鎖
09/02 09:27, 18F

09/02 09:29, 1年前 , 19F
Google 那個是拍下體不是嗎我記得,google 怎會知
09/02 09:29, 19F

09/02 09:29, 1年前 , 20F
道你照片是要意淫還是幹嘛?他難道還要能知道你要
09/02 09:29, 20F

09/02 09:29, 1年前 , 21F
看醫生?
09/02 09:29, 21F

09/02 09:29, 1年前 , 22F
09/02 09:29, 22F

09/02 09:30, 1年前 , 23F
你相簿放小孩下體照本來就很噁心啊,即使人審也是
09/02 09:30, 23F

09/02 09:30, 1年前 , 24F
一樣,背後又不知道你要幹嘛
09/02 09:30, 24F

09/02 09:30, 1年前 , 25F
不得利用G平台/服務儲存分享CSAM,否則通報NCMEC,
09/02 09:30, 25F

09/02 09:30, 1年前 , 26F
NCMEC可將報告轉交各地執法機關
09/02 09:30, 26F

09/02 09:30, 1年前 , 27F
爸媽拍小孩病處正常不過
09/02 09:30, 27F

09/02 09:31, 1年前 , 28F
先以惡意揣測他人 別人反駁還不忍
09/02 09:31, 28F

09/02 09:34, 1年前 , 29F
這種沒保障的平台我還真的不敢用
09/02 09:34, 29F

09/02 09:34, 1年前 , 30F
因為雲端準備來換手機好了
09/02 09:34, 30F

09/02 09:44, 1年前 , 31F
我家也有我小時候的入浴裸體照
09/02 09:44, 31F

09/02 09:44, 1年前 , 32F
從來不覺得跟兒童色情有什麼關系
09/02 09:44, 32F
還有 33 則推文
09/02 12:06, 1年前 , 66F
例如i8、i10、i12、i14綁定icloud2 i7/i9/11/13不綁
09/02 12:06, 66F

09/02 12:12, 1年前 , 67F
呵呵 果粉繼續吹重視隱私才用iphone
09/02 12:12, 67F

09/02 12:13, 1年前 , 68F
孤狗這方面真的不行
09/02 12:13, 68F

09/02 12:25, 1年前 , 69F
這也能扯到孫文,是有多愛
09/02 12:25, 69F

09/02 12:31, 1年前 , 70F
材料是啥
09/02 12:31, 70F

09/02 13:31, 1年前 , 71F
這樣才能賺更多錢
09/02 13:31, 71F

09/02 13:41, 1年前 , 72F
雲端空間之爭,怎跳到哀鳳銷量==
09/02 13:41, 72F

09/02 13:42, 1年前 , 73F
google真的是有點獵巫化會不會我以後關鍵字搜索也被
09/02 13:42, 73F

09/02 13:42, 1年前 , 74F
09/02 13:42, 74F

09/02 13:44, 1年前 , 75F
哇 這肯定要支持蘋果的 但雲上貴州的部分除外 有部
09/02 13:44, 75F

09/02 13:44, 1年前 , 76F
分人類隱私標準搞雙標 這不能挺
09/02 13:44, 76F

09/02 13:51, 1年前 , 77F
ㄜ...不知道對方背後會怎樣,那就無罪推定對方啊
09/02 13:51, 77F

09/02 13:53, 1年前 , 78F
有罪推定啦 我也是遊戲常常被檢舉開外掛 其實只是
09/02 13:53, 78F

09/02 14:02, 1年前 , 79F
我是指樓上在有罪推定的那位
09/02 14:02, 79F

09/02 14:04, 1年前 , 80F
不知道對方幹嘛的話,這樣像google有罪推定抓錯人
09/02 14:04, 80F

09/02 14:04, 1年前 , 81F
就更會被靠北
09/02 14:04, 81F

09/02 14:43, 1年前 , 82F
蘋果知錯能改不錯啊 看谷歌是不是要繼續裝死
09/02 14:43, 82F

09/02 14:43, 1年前 , 83F
很多左派的理想真的容易好心辦壞事
09/02 14:43, 83F

09/02 14:44, 1年前 , 84F
比方說性別平權 一個沒拿捏好就變心理女生理男血洗
09/02 14:44, 84F

09/02 14:44, 1年前 , 85F
女子運動榜單
09/02 14:44, 85F

09/02 14:45, 1年前 , 86F
但出發點其實也就是尊重每個人的性向而已
09/02 14:45, 86F

09/02 14:47, 1年前 , 87F
G帳收藏連結違反DMCA的可能被刪,記得導出備份,廣
09/02 14:47, 87F

09/02 14:47, 1年前 , 88F
告商談保護隱私不會有瓜田李下之嫌?
09/02 14:47, 88F

09/02 14:47, 1年前 , 89F
09/02 14:47, 89F

09/02 16:52, 1年前 , 90F
讚德政 鬼知道Google 用這漏洞看了大家多少東西
09/02 16:52, 90F

09/02 16:55, 1年前 , 91F
蘋果之前都承認有把部分siri錄音上傳第三方了 還有
09/02 16:55, 91F

09/02 16:55, 1年前 , 92F
被爆出測到關掉上傳還是會在後台偷上傳資料的事件
09/02 16:55, 92F

09/02 16:55, 1年前 , 93F
基本上這年頭用手機還想注重隱私很難
09/02 16:55, 93F

09/02 17:47, 1年前 , 94F
先用好事唬爛你, 接下來就開始變質了
09/02 17:47, 94F

09/02 18:09, 1年前 , 95F
不能自拍下體?犯了淫蕩罪嗎?
09/02 18:09, 95F

09/02 18:09, 1年前 , 96F
Tim Cook:你們不是顧客,你們就是產品。
09/02 18:09, 96F

09/02 18:28, 1年前 , 97F
推1樓、83樓 上次害死無數人 就是上世紀赤化的時候
09/02 18:28, 97F

09/02 19:54, 1年前 , 98F
反觀 google
09/02 19:54, 98F

09/02 20:25, 1年前 , 99F
09/02 20:25, 99F

09/02 21:36, 1年前 , 100F
蘋果終於放棄偷窺用戶資料照片了 偷報警那個真的扯
09/02 21:36, 100F

09/03 23:36, 1年前 , 101F
反觀Google 拍跟小孩一起洗澡 害我被鎖一個帳號…
09/03 23:36, 101F

09/03 23:37, 1年前 , 102F
轉移到One drive後再也沒發生過這種扯蛋狀況
09/03 23:37, 102F

09/04 05:41, 1年前 , 103F
蘋果還是比較正向
09/04 05:41, 103F

09/04 19:02, 1年前 , 104F
蘋果做的就是好囉
09/04 19:02, 104F

09/04 21:07, 1年前 , 105F
說不定是一直檢測到不能動的人XD
09/04 21:07, 105F
文章代碼(AID): #1ayeDgSR (MobileComm)
文章代碼(AID): #1ayeDgSR (MobileComm)