Apple新聞 iPhone消息

Siri 遭爆偷錄激烈啪啪聲和機密對話,蘋果直接回應有的

蘋果用戶最愛用的智慧語音助理 Siri  最近被蘋果承包商員工爆料,Siri很愛偷錄用戶談話,甚至連毒品交易、醫療資訊和床邊親密床事等聲音都會被紀錄,並且會將這些資訊自動回傳給第三方承包商,造成個人隱私權受到侵犯,當這件消息曝光後,蘋果也立即對外回應並澄清,有的!但只僅有小部分才有拿去分析。

Siri 遭爆偷錄激烈啪啪聲和機密對話,蘋果直接回應有的

 

根據外媒《衛報》報導指出,Siri會在用戶不知情的情況下觸發,導致用戶不少私密或機密的對話都會錄下來,這些對話內容也涵蓋醫生與病患之間的談話、商業交易、罪犯毒品交易、夫妻在從事性行為的聲音等,這些錄音檔也都會顯示位置、聯繫方式和數據資料。

Siri 遭爆偷錄激烈啪啪聲和機密對話,蘋果直接回應有的

蘋果公司一直以來都以個人隱私為重,在這個爆料出現後,Apple 也立即在第一時間回應:

這些錄音只是用於改善 Siri 的聽寫功能,而且這些發送給國際承包商的錄音沒有記錄用戶的 Apple ID(無用戶敏感資料數據)。確實有拿一小部分語音去分析,但每次只會錄下幾秒鐘,藉此改善 Siri 和聽寫功能,且比例不到每日 Siri 啟動的 1%,用戶的蘋果 ID也不會被傳送出去。

 

不過根據爆料者宣稱 Siri 錄音並沒有自動排除不小心觸發的錄音行為,當發音比較近似的嘿Siri,也就很有可能會不小心觸發,如用戶不去關閉 Siri 正等待接收命令時,這時候就容易會將一些比較機密性的對話或激烈啪啪聲全錄下來,其中 Apple Watch 和 HomePod 是最常見的錄製設備,智慧型手錶誤觸的機率非常高,而且還可以錄製長達30秒,就足夠將目前正在發生的任何事情透過聲音錄製下來。

apple watch siri

爆料員工更宣稱,Siri 大多數最常聽見的就是拉鍊聲音,大多都是用戶帶著 Apple Watch 上廁所造成誤觸嘿 Siri 指令後,導致就容易啟動錄音。(該不會很多人上廁所時都很哼歌或吹口哨有關連?)

如今也不只是蘋果 Siri 才會偷錄音再進行分析,造在不久前 Google 的 Assistant 和亞馬遜的 Alexa 也都曾經使用過類似方式提升語音助理和產品;甚至其他廠商所開發的語音助理,你能夠確保他們不會自動偷偷啟動錄音功能?然後監聽用戶的對話內容,也許你只是在意價格便宜的語音助理設備,也無法避免可能會發生被監聽。

延伸閱讀:教你防止 Siri 錄音偷回傳蘋果伺服器技巧,強制關閉 Apple 蒐集資訊

如何防止誤觸 嘿Siri 功能?

如果你擔心會不小心誤觸嘿 Siri,可以到「設定」>「Siri與搜尋」內,將聆聽嘿Siri功能關閉即可。

▼ 如果覺得本篇教學不錯,歡迎加入瘋先生粉絲團追最新教學技巧 ▼