Apple 將掃描 iCloud 尋找包含暴力侵害兒童的圖像。

作者照片
stealth

我們知道, Apple 非常關心通過生態系統中的設備傳輸的數據的機密性,並確保它們免受窺探。 然而,這並不意味著用戶不必遵守與倫理、道德甚至人性相關的規則。

Apple 宣布將很快推出一項技術,能夠掃描用戶存儲的所有圖像 iCloud 並識別包含對兒童進行性虐待的照片。 兒童性虐待材料 (CSAM)。
該技術將由 Apple 到今年年底,最有可能是針對少數用戶的試點版本。

如果您想知道“數據機密性在哪裡?”,找出我們收到的所有內容 視頻/照片 它是通過加密協議完成的。 以及將數據存儲在 iCloud 它是加密的,但此類服務的提供者擁有加密數據的密鑰。 在這裡我們不僅要說 Apple. 微軟、谷歌等數據存儲服務 cloud 我做同樣的事情。

如果在法律訴訟中要求或公然違反法律,則可以對存儲的數據進行解密和驗證。 比如那些針對兒童和婦女的暴力行為。

為了保證用戶的機密性,該公司依賴一種名為 NeuralHash 的新技術,該技術將掃描來自 iCloud 並將通過將它們與數據庫中的其他圖像進行比較來識別包含暴力侵害兒童的內容。
它有點類似於面部識別或對物體、動物和其他元素的智能識別。

該技術將能夠掃描和驗證通過 iPhone、iPad 或 Mac 設備拍攝或傳輸的照片,即使它們會發生變化。

我很高興分享我在電腦、手機和作業系統領域的經驗,開發網路專案並帶來最有用的教學和建議。 我喜歡用iPhone“玩”, MacBook Pro、iPad、AirPort Extreme 和操作系統 macOS, iOS, Android 和 Windows.

發表評論