蘋果一直標榜自家的手機及iOS系統(tǒng)在用戶隱私上的牢不可破,甚至不惜跟美國政府打官司。不過現(xiàn)在蘋果改了一個政策,iOS會審查用戶的照片,以致于蘋果都要開始為此統(tǒng)一員工口徑。
本月初,蘋果宣布了一項新政策,將推出名為“neuralMatch”的新技術,它會在圖片上傳到iCloud之前進行掃描。如果它找到了匹配的CSAM(兒童性虐待照片),將會通知審核人員檢查。若確認存在兒童色情內(nèi)容,那么蘋果方面將關閉賬戶,并通知美國國家失蹤和被剝削兒童中心。
蘋果這一舉動受到了兒童保護組織的認可,但有更多的人認為蘋果審查用戶照片是個不好的苗頭,覺得被植入了后門,擔心該系統(tǒng)遭到濫用。
蘋果此前解釋過該系統(tǒng)的運作方式,稱這一系統(tǒng)并不能真正“看到”用戶的照片,而是采用“數(shù)字指紋”的技術,通過辨識圖片中的關鍵信息,與現(xiàn)有的兒童性侵圖像數(shù)據(jù)庫內(nèi)容對比。
雖然內(nèi)部員工都有強烈的反對傾向,但蘋果還是會執(zhí)行這一政策,本周還給員工下發(fā)了最新的備忘錄,要求員工在CSAM后門問題上統(tǒng)一口徑,強調(diào)這一政策只針對iCloud中的CSAM內(nèi)容,不會容忍被濫用。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關于我們 | 廣告業(yè)務 | 投稿信箱
Copyright © 2000-2020 www.sgycos.com All Rights Reserved.
中國網(wǎng)絡消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com