【ITBEAR科技資訊】9月1日消息,蘋果公司宣布取消了去年12月提出的iCloud云服務(wù)中的兒童性虐待材料(CSAM)檢測計劃,這一決定是在媒體、非營利機(jī)構(gòu)和消費者的廣泛反對聲中做出的。
該檢測計劃于2021年8月首次測試,旨在檢測存儲在iCloud中的CSAM圖像資料,但自發(fā)布以來引發(fā)了激烈爭議。最初,蘋果公司表示CSAM檢測功能將在iOS15和iPadOS15的更新中實施,但由于客戶、宣傳團(tuán)體、研究人員以及其他方面的反饋,該公司最終推遲了這一計劃的實施。
據(jù)ITBEAR科技資訊了解,一家名為Heat Initiative的兒童安全組織本周發(fā)起了一項活動,要求蘋果公司從iCloud中檢測、報告和刪除CSAM,并提供更豐富的工具,讓用戶能夠向蘋果公司報告CSAM內(nèi)容。對此,蘋果公司用戶隱私和兒童安全總監(jiān)Erik Neuenschwander罕見地回應(yīng)了Heat Initiative,解釋了放棄開發(fā)iCloud CSAM掃描功能的原因。
他表示:“兒童性虐待材料是令人憎惡的,我們致力于打破使兒童易受其影響的脅迫和影響鏈。然而,掃描每個用戶私人存儲的iCloud數(shù)據(jù),會成為數(shù)據(jù)竊賊發(fā)現(xiàn)和利用創(chuàng)造新的威脅載體。而且這種方式可能會導(dǎo)致很多預(yù)期之外的嚴(yán)重后果,例如掃描一種類型的內(nèi)容為批量監(jiān)控打開了大門,并可能產(chǎn)生跨內(nèi)容類型搜索其他加密消息傳遞系統(tǒng)的愿望。”
在關(guān)閉CSAM檢測計劃時,蘋果公司表示,他們將繼續(xù)投資于兒童保護(hù)舉措,并強(qiáng)調(diào)兒童可以在沒有公司梳理個人數(shù)據(jù)的情況下得到保護(hù),同時承諾繼續(xù)與政府、兒童倡導(dǎo)者和其他公司合作,以維護(hù)兒童的隱私權(quán),努力使互聯(lián)網(wǎng)成為兒童和所有人更加安全的地方。這一決策的公開回應(yīng)表明蘋果公司正在積極關(guān)注用戶隱私和安全問題,并考慮了各方的關(guān)切。






