在人工智慧(AI)浪潮下,華為、小米、榮耀、vivo、蘋果……越來越多廠商在手機上部署端側大模型,手機變得越來越「聰明、懂你」。
新風潮也引出新問題。當意欲成為個人助理的AI手機,大量收集個人語音、操作記錄、使用習慣等數據,如何確保使用者私密安全,如何厘清終端廠商與APP之間的數據安全責任關系?再次引發熱議和思考。
誰來承擔數據安全保護義務?
根據市場分析機構Canalys的數據,2024年,全球16%的智慧型手機出貨量為AI手機,這一比例在2028年預計將升至54%。
AI手機出現前,使用者是APP的直接操作者,APP直接采集個人資訊並進行處理,APP及其服務提供者是使用者私密保護與數據安全的主要責任方。但AI加入這段關系後,終端廠商與APP服務提供者在數據安全上的責任劃分變得模糊。
首先,AI手機為了向使用者提供準確且客製化的服務,必須參與到數據流轉環節中:買了哪天出發的車票、有多少快遞待取件、導航選擇哪條路線……使用者與APP之間的每次互動,AI都默默在旁記錄。其中的個人資訊授權路徑、數據使用規範、私密保護責任劃分等顯然有待進一步厘清。
其次,在「一句話點餐」「一句話取消自動續費」「自動回復微信」等功能的實作方案上,目前AI手機普遍采取「螢幕內容辨識+模擬使用者點選」的方式,以回避APP生態接入、數據介面授權等商業問題。但此方案同時令APP無法知曉自己接收的指令來自使用者本人還是AI。
有從業人士指出,端側AI使用的錄屏、模擬點選等功能主要依賴手機系統的無障礙介面實作。該介面原意是允許應用程式讀取螢幕內容並代替使用者執行指令,方便殘障人士使用手機。由於其許可權極高,一旦遭到惡意攻擊或非法呼叫,很可能使使用者數據安全與私密保護體系形同虛設。
AI手機透過模擬使用者點選取消自動續費服務。(圖為某品牌手機宣傳畫面)
此外,盡管不少終端廠商以「自研大模型」「本地AI處理」等作為產品宣傳語,但為確保使用者體驗、滿足功能需求,多個手機品牌的AI服務實際仍依賴雲端算力,且可能有多個不同服務商的大模型同時在雲端提供支撐。使用者提出的數據處理請求,可能流轉給不同的大模型分步驟處理或共同處理。數據的流向與用途難以追蹤,同時為數據安全管理帶來風險。
在DARKNAVY深藍科技研究員肖軒淦看來,大模型在使用者私密數據存取方面有一定問題。他表示,與ChatGPT這類只能被動接收使用者輸入的系統不同,當手機或電腦接入AI套用後,就變成一個「智慧體」,這些套用能夠主動存取裝置中的大量私密資訊,必須引起高度重視。
數據收集與處理是否符合規定?
中國【個人資訊保護法】明確了個人資訊處理的最小必要原則和知情同意原則:收集個人資訊應當限於實作處理目的的最小範圍,不得過度收集個人資訊;基於個人同意處理個人資訊的,該同意應當由個人在充分知情的前提下自願、明確作出。
但在AI手機面前,使用者很難分清AI到底收集了哪些數據,是否與最小必要原則相自洽。例如,當使用者請AI幫忙發條微信時,AI開始辨識整個螢幕,找到對應的聯系人名稱,辨識到對話方塊,鍵入內容。但在此過程中,AI也可透過螢幕獲得使用者微信中的聯系人列表、過往聊天記錄等數據。
又以「一句話點外賣」場景為例,AI讀屏過程中,APP展示的個人化搜尋結果、配送地址等資訊會否一同被AI收集和處理,成為下一次外賣下單或者餐廳推薦的參考數據?使用者無從知曉。
騰訊研究院大模型研究小分隊撰文提到,端側AI可透過錄屏、讀屏和分析,獲取其所展現的身份、位置、支付等各類敏感資訊。由於錄屏場景十分豐富,其所辨識的資訊型別也將無法提前預測,並且極有可能包含了大量其他自然人的個人資訊。
同濟大學法學院教授黃錇也撰文指出,生成式AI采用的技術路線使其成為完全的「技術黑箱」,即使開發者也無法確切掌握個人資訊數據在模型中會被如何處理,模型會從中發現何種自然語言統計規律,以及模型會在下遊套用中輸出何種資訊並被用於何種目的,更難以辨析個人資訊數據的權利狀態與私密風險。
數據安全爭議早已有之
公開報道顯示,AI與套用之間的數據安全責任劃分問題早已在行業內引發爭議。2017年,華為和騰訊就曾因使用者數據歸屬問題引發糾紛。當時尚未與華為分拆的榮耀在其Magic智慧型手機中推出新功能,可基於使用者微信聊天記錄等數據,實作智慧化服務。如使用者向他人發送「明天我要做培訓」的微信訊息,手機行事曆便可自動添加該日程。但騰訊認為此舉涉嫌不當獲取微信數據、侵犯使用者私密。
2024年5月,微軟公司曾嘗試推出名為「Recall」的AI功能,可每隔幾秒對使用者螢幕進行截圖,再由AI辨識、理解使用者意圖,為使用者提供回憶歷史操作、找回特定內容等智慧化服務。盡管微軟強調該功能所有數據都在本地儲存和分析,且使用BitLocker進行加密,但依然引發大批行業人士的不滿和抵制。不少開發者質疑「Recall」可能無意中截取包含使用者密碼、銀行帳戶等敏感資訊的螢幕截圖,資訊一旦泄露,將對使用者造成嚴重損失。爭議聲中,「Recall」的正式推出一再推遲,截至2025年1月,該功能仍只能透過「Windows預覽體驗計劃(WIP)」體驗。
廠商把AI安全作為主要賣點
對於數據安全、私密保護,終端廠商則紛紛「表態明誌」。2024年10月,vivo、OPPO、榮耀等多個手機品牌先後舉辦開發者大會或新品釋出會,其間均多次強調AI服務的安全性。vivo首席安全官魯京輝表示,vivo采取「端側優先、端雲協同」的技術策略,能在端側處理的數據絕不上雲,並強調使用者私密安全始終是打造個人化智慧的首要原則。榮耀CEO趙明在新品釋出會後接受媒體采訪時反復強調,沒有數據保護和私密安全的AI毫無價值,榮耀將堅持在端側進行數據處理以保護使用者私密。OPPO也宣布為其作業系統ColorOS 15引入全新的芯片級AI私密計算雲,確保使用者私密數據在雲端可用不可見。
部份終端廠商還釋出自己的意圖框架方案,APP開發者可透過規範的數據介面,把APP業務功能直接與手機系統對接,AI不再需要透過讀屏、模擬點選來呼叫APP,且可實作更精準的使用者意圖理解,為使用者匹配更合適的服務。
但有業內人士指出,說服第三方APP加入廠商的意圖框架並非易事。首先,APP向手機系統開放介面,如何保證數據安全有待考量;其次,手機AI直接呼叫APP服務,將弱化APP自身的存在價值,減少直接觸達使用者的機會。在使用者數據價值日益凸顯的當下,開發者更願意將使用者及其數據牢牢掌握在自己手中,缺乏與終端廠商共享的動力。
圍繞新特點探索安全新機制
2024年12月,對外經貿大學、中國人民大學、螞蟻集團聯合釋出【演算法與AI大模型的使用者認知調研報告(2024)】,基於8030份問卷的調研顯示,過半數受訪者在使用AI大模型時遇到過數據安全與私密問題,60.09%的受訪者認為AI可能會不受控制地收集和處理個人資訊。該報告指出,為了降低大模型的風險,必須采取全面而多元的策略。
南都研究員留意到,2025年1月起施行的【網路數據安全管理條例】明確,網路平台服務提供者應當透過平台規則或者合約等明確接入其平台的第三方產品和服務提供者的網路數據安全保護義務,督促第三方產品和服務提供者加強網路數據安全管理。預裝應用程式的智慧終端等裝置生產者,適用前款規定。
觀韜中茂(上海)律師事務所合夥人吳丹君接受媒體采訪時也表示,終端廠商在預裝APP時應透過平台規則或合約明確第三方產品和服務提供者的網路數據安全責任,並監督第三方加強數據安全管理。
天津大學法學院講師李欣倩提出,「知情同意」是數據控制的核心理念,要求個人資訊處理必須獲得數據主體同意授權或符合法律規定。當前,傳統的「一次性同意」模式已經不能滿足人工智慧的發展趨勢,應當向持續的資訊披露和動態同意機制轉變。
黃錇則認為,應基於「包容審慎」的基本風險規制理念,建構具有針對性的規制措施,包括調整生成式AI領域知情同意規則的適用方式、重塑生成式AI領域已公開個人資訊的處理規則、設立生成式AI領域個人資訊中人格權保護的行政規制措施等,以便在數位經濟時代真正實作生成式AI創新技術發展和個人資訊保護之間的平衡。
出品:南都大數據研究院
采寫:南都研究員 李偉鋒 羅韻