蘋果將自動掃描iCloud兒童情色圖片?分析到底是怎麼回事

蘋果美國官網在近期發表「兒童保護措施」新功能,能夠自動檢測 Messages 聊天室和 iCloud 照片中是否涉及到兒童性虐待和色情圖片,同時在利用 Siri 和搜尋時也會干涉阻擋。蘋果這項安全機制立即獲得兒童保護組織讚揚,不過也引起數位權利的電子前線基金會 EFF 反對,同時也有5千多名隱私、密碼專家透過連署拒絕這項政策,要求蘋果重新評估。

蘋果將自動掃描iCloud兒童情色圖片?分析到底是怎麼回事

 

由於蘋果準備要在 iOS 15、iPadOS 15 和 macOS Monterey 新系統更新中,加入兒童安全保護措施功能,並且分成三項主要新安全機制,分別是「Message 訊息安全偵測、iCloud照片CSAM檢測機制、Siri和搜尋防護機制」,似乎有不少用戶,開始擔心自己的照片會被看光,認為iOS已經沒有所謂隱私權,真的是這樣嗎?

這篇就詳細說明蘋果對於「兒童保護措施」新機制背後運作原理進行解析,以及告訴你該不該擔心這些新的安全檢測機制,未來會不會影響到個人隱私。

 

Message 訊息安全偵測

蘋果將替新版系統 Messages 新增新功能「幫助通信安全Helping with Communication Safety)」,能夠用來自動判斷接收或發送是否為色情圖片,如果兒童在接收到色情照片,照片會自動模糊處理;要是孩子企圖強制想要發送或接收色情照片時,就會立即跳出警告訊息兒童和父母。

蘋果表示這項功能主要是利用機器學習技術來分析照片,確認 Messages 接收或發送照片是否包含色情圖片,所有分析全部都在裝置內進行,蘋果無法得知,該功能率先會在美國地區推出。

Message 訊息安全偵測

此功能將於 iOS 15、iPadOS 15 和 macOS Monterey 的 iCloud 中設置為家庭的帳戶進行更新。

 

iCloud照片CSAM檢測機制

目前全世界也正面臨一個重要議題「兒童性虐待內容」(Child Sexual Abuse Material,CSAM )在網路散播,蘋果宣佈已經開始測試一個全新檢測系統名為「neuralMatch」,能夠使用複雜加密技術識別用戶上傳的 iCloud 雲端照片,並且與美國失蹤兒童及童工保護中心(NCMEC)建立資料庫進行比對。

多數人也擔心 CSAM 檢測機制影響用戶隱私,蘋果強調這項功能並非是直接掃描 iCloud 所有照片,而是將 NCMEC 和其他兒童安全組織提供的 CSAM 圖像內容和資料庫轉成不可讀的雜湊組,最後會上傳到用戶的 iPhone 、iPad 裝置「neuralMatch」系統內。

只有使用者要將照片上傳備份到 iCloud 時,才會啟動私有集合交集(Private Set Intersection)加密技術,會立即與 CSAM 資料庫比對,比對完成的照片或影片,就會自動附加比對結果的加密憑證,最後一起儲存至 iCloud 照片內。

這項「neuralMatch」系統機制檢測過程,會搭配一種稱之為「閾值秘密共享」技術,能讓 iCloud 掃描 CSAM 照片和比對雜湊值相似度超過一定閾值,當達到一定數量的照片被標記為可疑後,Apple 系統就會自動將所有可以照片進行解密,並且傳送給 Apple 進行人工手動審核,確認用戶帳戶內是否含有大量「兒童性虐待內容」,如屬實最終會直接停用 iCloud 帳戶和向 NCMEC 發送報告,用戶如果認為自己的帳戶被誤判上鎖,也可以提出上訴恢復。

 

Siri和搜尋防護機制

最後蘋果直接增強設備 Siri 和搜尋功能,只要用戶想要查詢有關於 CSAM 相關內容時,系統就會跳出這類主題是有害或有問題的,能夠提供相關有幫助的資源,就如同 Google 搜尋結果都會特別註明該網站遭入侵或不安全提示。

Siri 和搜索將於今年晚些時候在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

Siri和搜尋防護機制

 

蘋果面臨各方安全反對

蘋果計劃要用人工智慧和機器學習來偵測 Messages 和 iCloud 內容,也遭到電子前哨基金會(EFF)和民主與技術中心(CDT)都強烈反對,認為蘋果放棄標準的端對端加密傳訊機制,採用一種具備監控及審查的架構,要求取消這些功能,恢復使用者對於蘋果裝置和服務的安全隱私權

另外也有不少資安、隱私與密碼學專家認為,這些機制同等於是開啟一扇加密後門,雖然蘋果宣稱保護使用者隱私,但是只要有後門存在,所有安全儲存和傳訊都已經被打破

也有一名隱私研究人員 Nadim Kobeissi 表示,蘋果在阿拉伯販售 iPhone 需配合當地規定,不得使用 FaceTime 加密功能,同等於蘋果有可能會在未來遭到其他國家政府要求,要掃描同性戀性愛內容也一定會配合當地政策。

 

用戶應該擔心新隱私保護政策嗎?

近幾年蘋果在 iOS、iPadOS 和 macOS 一直增強個人隱私保護重要性,同時也透過各類機制防堵用戶隱私外洩,像是 iOS 14 正式啟動跟蹤透明度隱私功能(App Tracking Transparency,ATT),造成許多 App 無法取得設備廣告標識符 IDFA,以及iOS 15 私密轉送隱藏我的電子郵件 ,確實替系統增強不少安全隱私。

蘋果計劃要在 iOS 15 推出「兒童保護措施」新功能,也看出蘋果出自於善意,防止兒童過早接觸色情,對於家長而言,這項功能確實是能夠幫助父母能夠即時了解小孩是否有接觸到色情訊息,但是防護機制僅限於 iOS 內建「訊息」(Messages)功能,無法針對 LINE 、WeChat 等第三方通訊軟體偵測。

比較多人在意 iCloud 上傳照片、影片,會先經由 CSAM檢測掃描,也導致許多不知背後運作原理的用戶擔心自己的照片上傳iCloud,會不會被蘋果工程師全看光光?

如果透過以上說明,大致能夠了解CSAM 掃描機制其實是在本機端進行,並非是在 iCloud 伺服器端全面掃描,除非你的照片內存在大量關於兒童色情、兒童虐待影片資料,達到一定數量,Apple會自動解密和進行人工檢查,要是屬實也會立即鎖住iCloud帳戶和通報 NCMEC 單位,用戶根本不用擔心自己存在 iCloud 照片會被偷窺

CSAM 檢測照片機制,蘋果強調是採用雜湊組進行比對,非是進行照片內容掃描,在沒有觸發時,也不可能讓 Apple 內部審核員工看見其他人照片

目前採用 AI 人工智慧分析技術早在科技業內已經相當慎行,不管將照片上傳至 Google、Facebook、Instagram 、第三方變臉 App 或 iOS 內建照片等,科技大廠已經都在使用 AI人工智慧進行機器學習,能夠自動識別人臉、男性、女性、老人、小孩、食物、動物、花等各種不同場景,差別在於 iOS 內建照片是由本機端機器學習和AI辨識,不像是其他平台,在照片上傳平台後,就開始進行掃描照片內容,實現自動偵測人物、動物、場景或物品,才能透過搜尋快速找到相關照片。

蘋果過於追求個人隱私功能,也為了保護兒童推出了新的隱私驗證與掃描機制,這些技術多少會面臨各界的質疑和反對聲浪,不免令人擔心最終可能成為其他國家政府的監控機制。

要是蘋果最終在 iOS 15、iPadOS 15 與 macOS Monterey 不聽外界聲音,還是要強制推出,同時你也無法接受這些機制,可以考慮停用 iCloud 照片備份機制,改用其他雲端照片備份,就不用擔心個人隱私會遭侵犯。

 

喜歡這篇文章教學,後續想了解更多Apple資訊、iPhone、Mac、3C隱藏技巧,歡迎追蹤 瘋先生FB粉絲團瘋先生LINE@訂閱瘋先生Google新聞TelegramInstagram以及 訂閱YouTube頻道,將會有更多非常實用的技巧教學分享給大家。

返回頂端
Share to...