來(lái)源:浙江日報
近日,包頭警方發(fā)布一起利用AI實(shí)施電信詐騙的典型案例。福州市某科技公司法人代表郭先生10分鐘內被騙430萬(wàn)元,對方通過(guò)智能AI換臉技術(shù),佯裝成好友對其實(shí)施了詐騙。隨后,“AI詐騙正在全國爆發(fā)”的話(huà)題沖上熱搜,引發(fā)熱議。
包裹在AI技術(shù)下的騙局,讓人心生恐慌,因為它具有很強的隱蔽性。以往,騙子多是以“未曾謀面的陌生人”的角色出現,盡管具備迷惑性,但不少人難免會(huì )多幾個(gè)心眼。然而披上AI外衣的詐騙,卻通過(guò)在受害人心里建立起信任基礎,利用“熟人”身份降低受害人的戒備心,識別騙局更為不易。
近些年,AI寫(xiě)作、AI換臉等深度合成技術(shù)迅速發(fā)展,令人喜憂(yōu)參半。人們一邊驚嘆于技術(shù)的先進(jìn)拓展了人類(lèi)的想象,一邊又擔心它模糊現實(shí)與虛擬的邊界。面對這把雙刃劍,如何在技術(shù)創(chuàng )新與風(fēng)險防范間找到平衡并不簡(jiǎn)單。有學(xué)者稱(chēng)之為“科林格里奇困境”——當技術(shù)的改變相對容易時(shí),其不良后果卻難以完全預見(jiàn);而當不良后果變得明顯時(shí),采取行動(dòng)往往為時(shí)已晚或成本過(guò)高。
AI換臉技術(shù)被用于詐騙,尚屬人工智能高速成長(cháng)階段的新問(wèn)題,但其造成的財產(chǎn)風(fēng)險,對肖像權、知識產(chǎn)權等權益的侵犯卻不容低估。此前,人類(lèi)總能通過(guò)不斷適應新技術(shù)的發(fā)展而調整治理手段,一次次走出“科林格里奇困境”。如今,也該為狂奔的AI安上“剎車(chē)”了。
針對AI詐騙,2022年12月,國家網(wǎng)信辦、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規定》,明確深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識別信息編輯功能的,“應當提示深度合成服務(wù)使用者依法告知被編輯的個(gè)人,并取得其單獨同意”。今年5月9日,抖音平臺發(fā)布的《關(guān)于人工智能生成內容的平臺規范暨行業(yè)倡議》提出,各生成式人工智能技術(shù)的提供者均應對生成內容進(jìn)行顯著(zhù)標識,以便公眾判斷。
實(shí)際上,對AI換臉技術(shù)用于詐騙并非“無(wú)計可施”。從目前來(lái)看,AI換臉必須經(jīng)過(guò)本人同意、AI畫(huà)面與真實(shí)畫(huà)面必須形成“辨識差異”將是監管的主要方向。而在上述案例中,個(gè)人微信、人臉、聲音等隱私信息為何遭泄露值得追問(wèn),AI技術(shù)之所以在詐騙事件中屢屢得逞,也是因為盜取了個(gè)人的隱私信息,作為編織騙局的“脈絡(luò )”。因此,對隱私信息的使用處理,理應嚴格遵守信息保護邊界,避免因隨意泄露給信息提供者帶來(lái)嚴重后果。
無(wú)論是問(wèn)題暴露前的“未雨綢繆”,還是問(wèn)題顯現后的“查漏補缺”,都是人類(lèi)厘清技術(shù)發(fā)展“邊界”的必要手段。我們尤須引導新技術(shù)向上向善,謹防詐騙披上AI外衣。