每日經濟新聞 2023-05-24 22:25:46
每經特約評論員 畢舸
近日,包頭警方發布一起利用AI實施電信詐騙的典型案例。4月20日中午,郭先生的好友突然通過微信視頻聯系他,稱其朋友在外地競標,需要430萬元保證金?;趯糜训男湃?,加上已經視頻聊天核實了身份,郭先生分兩筆把430萬元轉到了好友朋友的銀行卡,期間也沒有核實錢款是否到賬。此后,郭先生撥打好友電話,才知道被騙。騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。幸運的是,接到報警后,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移,目前正在全力追繳中。
從這場新型騙局來看,騙子同時使用了“AI換臉”和“AI擬聲”兩種技術。但細究起來,“AI換臉”技術已經出現多年,之前在微信朋友圈曾一度刷屏。經查詢發現,目前在多個移動端及桌面端應用商店中,都提供類似軟件。如深圳某公司開發的AI換臉軟件,其宣傳詞是“情侶、閨蜜、家人合拍制作甜蜜視頻,多人換臉、單人換臉、視頻換臉生成美美的寫真照,用AI換臉秀Cosplay各種角色,只需你動動手指哦~”。將“AI換臉”說得如此便捷、有趣,難怪不少人心動嘗鮮。
殊不知,當人們使用“AI換臉”,意味著自己的人臉特征信息將納入企業數據庫,而企業并未向用戶告知,這些帶有隱私性的生物特征信息會如何管理,是否會用于他處?這也就意味著,相關生物特征信息極易被用作他途,還存在大規模泄密的可能性。
此外,近期“AI孫燕姿”爆紅,說明AI音樂生成器也開始出現在更多普通用戶的電腦桌面上。人們可以輕易通過AI變聲做到以假亂真。
如果人們驚嘆“AI換臉”、“AI換聲”等技術的神奇,并禁不住好奇之心加以試用,個人臉部、聲音等生物特征信息都存在被盜用等風險。而當違法分子通過各種渠道獲取此類生物特征信息,就能實現更高“效率”的犯罪。就如前述案例中,騙子以此讓郭先生難辨真偽。
因此,“AI詐騙”暴露出公眾隱私漏洞,這包含兩方面的問題。首先,對于此類“AI換臉”、“AI換聲”軟件的流行,尚缺乏有效監管。企業是否按照《個人信息保護法》等法律法規的相關要求,對用戶原始生物特征信息不予存儲,或者脫敏處理,全靠其道德自律。
其次,部分用戶同樣缺乏較強的自我保護意識,對涉及個人隱私的生物特征信息,輕易提供給第三方,等于拱手將自我隱私安全之門向他人敞開。
《個人信息保護法》規定,履行個人信息保護職責的部門發現個人信息處理活動存在較大風險或者發生個人信息安全事件的,可以按照規定的權限和程序對該個人信息處理者的法定代表人或者主要負責人進行約談,或者要求個人信息處理者委托專業機構對其個人信息處理活動進行合規審計。個人信息處理者應當按照要求采取措施,進行整改,消除隱患。
因此,有關部門應對市面上形形色色的“AI換臉”、“AI換聲”等商業化服務從嚴監管,對其背后企業在個人信息保護方面存在的問題予以糾錯,就如去年開始對于各類APP過度索取用戶隱私信息的專項整頓一樣,通過常態化執法,減少管理盲區,從源頭上堵住生物特征信息泄露現象。
同時,有關部門也要加大宣傳力度,提醒公眾增強安全意識。近日,中國互聯網協會針對“AI詐騙”現象發文指出,公眾在日常生活中要規避可能導致隱私泄露的各種做法,遇到遠程轉賬需求時進行多重驗證。唯有更多人從“AI詐騙”案例中警醒,自覺做好個人信息安全第一責任人,有關部門針對“AI詐騙”的新特點、新趨勢,及時采取各類預防舉措,督促個人信息使用者切實履行責任,方能形成對“AI詐騙”更嚴密的社會防線。
封面圖片來源:視覺中國
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP