前十位AI類APP需求規模同比增長近40倍,應用場景的豐富也增加了信息安全風險——
織好AI用戶信息“防護網”(“融”觀中國)
——“人工智能與信息保護”系列報道之一
對話交流、創作詩歌、編寫代碼、自動繪畫……以大語言模型為代表的生成式人工智能(AI)快速發展,正前所未有地改變著人們的工作和生活。
隨著生成式AI應用場景日益增多,個人信息保護也面臨新的挑戰:對數據的收集和挖掘,會不會侵犯個人隱私?怎樣處理好個人信息保護與數據合理利用之間的關系?使用個人信息的邊界在哪兒?本報記者就此進行了採訪。
“畫像”背后藏風險
“對許多上班族來說,做PPT是一件讓人頭疼的事,經常要加班加點熬夜制作,有時還要額外付費聘請專業設計人員修改潤色。”在北京某互聯網公司工作的小潘告訴記者,現在通過生成式AI軟件,隻需確定主題、導入大綱、選擇模版,不到1分鐘就能生成一份專業又精美的PPT。
盡管效率明顯提高,小潘卻心有疑慮:PPT裡提到的工作內容、行業數據、個人情況,會不會被儲存在AI“大腦”中?如果涉及企業戰略規劃、商業秘密、關鍵技術,有沒有被惡意竊取或泄露給第三方的可能?“目前,還沒看到軟件有類似‘一鍵擦除數據’的功能,無法確定這些信息的最終去向。”小潘說。
現實中,不管是生成PPT、制作簡歷還是自動美顏、智能聊天,都不可避免地要向生成式AI提供姓名、職業、人臉、聲紋等個人信息,其中潛藏著不容忽視的隱私泄露風險。
比如,一款基於生成式AI技術的攝影軟件一度走紅網絡。用戶花9.9元,上傳個人照片,選擇喜歡的模版,便能獲取一套由AI生成的寫真集。在AI寫真“刷屏”網絡的同時,該軟件也因存在濫用用戶信息的嫌疑受到批評。有網友說:“向一款手機APP裡傳這麼多照片,讓我感到很不安。誰知道這些照片會不會被作為其他用途?”后來,研發團隊致歉,承諾上傳照片隻用於數字寫真制作,制作完成后,照片也將自動刪除。
出於對新興技術的好奇,消費者往往在不知不覺中將個人隱私“透露”給AI。反過來,憑借獲取到的信息,通過強大的數據整合、處理能力,生成式AI也能判斷出個人的身份特征和行為習慣。有研究發現,聊天機器人可以從日常對話中精准提煉關鍵信息,了解其購物習慣、個人興趣乃至個人觀念,從而為用戶精准“畫像”。
“生成式AI具有高度智能化特征,借助其出色的內容理解和學習能力,從海量信息中獲取個人隱私,甚至可能通過對話‘誘導’用戶打開‘心房’。”西南政法大學科技法學研究院副院長鄭志峰告訴記者,這意味著生成式AI十分“懂”你,在侵害個人隱私方面更加高效、隱蔽,不易察覺。
用戶數據成“養料”
“我們將對您主動上傳的文檔材料進行脫敏處理后作為AI訓練基礎材料使用……”前段時間,某辦公軟件隱私政策中的條款被質疑濫用用戶信息。隨后,該軟件發布聲明,保証用戶文檔不再被用於AI訓練目的。
啥是AI訓練?“對生成式AI來說,離不開算法、算力、數據三要素。其中,數據是AI的‘養料’,‘投喂’得越多,AI越‘聰明’。”鄭志峰介紹,這決定了生成式AI必須盡可能多地採集、處理和使用各種數據,為大模型成長提供充足“營養”。
當前,各類數據採集無時不有、無處不在,幾乎每個人都被置於數字化空間之中,個人隱私極易以數據的形式被存儲、復制、傳播。在所有數據類型中,個人信息能反映個人行為、偏好、行動軌跡等,是最有價值的數據類型之一。
“許多企業利用用戶數據優化產品和服務、定向投放廣告或開展經營活動。”中國社會科學院法學研究所網絡與信息法研究室副主任周輝說,“有的企業片面關注數據價值,忽視了隱私保護和數據安全,可能出現違法收集、濫用用戶信息等行為。”
生成式AI的快速發展和應用門檻的大幅降低增加了隱私泄露風險。研究報告顯示,截至2024年1月,前十位AI類APP需求規模同比增長近40倍。生成式AI正加速滲透人們生活的方方面面。然而,應用場景日益豐富的同時,違規收集、使用用戶信息的花樣也變多了。
借助生成式AI的換臉和擬聲技術進行遠程視頻詐騙就是一例。有媒體報道,郭先生接到“好友”的視頻通話,對方聲稱需要保証金用以項目競標,想借郭先生公司賬戶“走個賬”。出自對“好友”的信任,郭先生陸續給對方轉賬共計430萬元。等郭先生再次聯系好友時才發現自己被騙。
“隨著AI生成內容愈發逼真,傳統內容審核機制和安全防護手段已不足以適應新形勢的要求。”中國信通院人工智能研究所高級業務主管呼娜英說,生成式AI技術愈加成熟,用戶在保護好個人隱私的同時,也需要提升對新型網絡犯罪的辨別和防范能力。
給AI產品貼“標記”
怎樣才能滿足生成式AI的“胃口”,同時又保護好個人隱私呢?處理好兩者關系,既需要法律法規的約束,也離不開技術手段的支撐。
去年7月,國家網信辦等七部門聯合發布《生成式人工智能服務管理暫行辦法》,多處提及個人信息保護問題。強調生成式AI服務提供者“對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄”等。
“中國目前有關個人隱私保護的法律法規比較完善。未來需要根據生成式AI技術特點進一步構建具體的權利、義務和責任規則。”鄭志峰舉例說,AI的風險等級是多樣的,不同AI算法對於個人隱私的侵害程度不同,需要有針對性的具體措施。
通過技術手段識別、阻斷和追溯生成式AI生成侵犯個人隱私的有害信息,也是人工智能治理實踐中的重要措施之一。根據《互聯網信息服務深度合成管理規定》, 深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當採取技術措施添加不影響用戶使用的標識。
“通俗地說,就是給生成式AI的產品和服務貼上統一的‘標記’,提示用戶該內容由AI合成,也有助於監管部門管理。”呼娜英介紹,由於顯式標識容易被裁剪或刪除,還需進一步探索隱式標識的解決方案。
盡管生成式AI在一定程度上存在隱私泄露風險,但並不意味著它與信息保護之間是完全對立的,關鍵是要找到發展與規范之間的平衡點,在生活越來越“智能”的同時,守護好個人隱私安全,推動生成式AI健康可持續發展。
分享讓更多人看到
- 評論
- 關注